¿Quién es Emily Bender y por qué su opinión importa?
Emily Bender no es una voz cualquiera en el mundo de la inteligencia artificial. Como profesora de lingüística en la Universidad de Washington y directora del **Computational Linguistics Laboratory**, lleva años investigando cómo el lenguaje humano interactúa con la tecnología. Su trabajo académico la ha convertido en una de las críticas más vocalizadas contra la narrativa dominante que rodea a los chatbots y modelos de lenguaje como GPT-3 o GPT-4.
Lo que hace única su perspectiva es que no proviene de un tecnólogo puro, sino de alguien que entiende el lenguaje desde sus raíces. Bender no niega los avances técnicos, pero insiste en que **confundir la capacidad de generar texto coherente con inteligencia real es un error peligroso**. Su famoso artículo *»On the Dangers of Stochastic Parrots»* (junto a Timnit Gebru y otros) desmontó mitos sobre cómo funcionan realmente estos sistemas.
Los chatbots no son inteligentes, son «loros estocásticos»
¿Qué significa «loro estocástico»?
Este término, acuñado por Bender, es una metáfora demoledora: los modelos de lenguaje **no comprenden lo que dicen**, sino que repiten patrones aprendidos de manera probabilística (de ahí «estocástico»). Como un loro que habla sin entender las palabras, estos sistemas generan respuestas basadas en estadísticas, no en razonamiento.
Bender explica que, aunque un chatbot pueda redactar un ensayo sobre filosofía o resolver un problema matemático, **no hay conciencia detrás**. Simplemente, ha sido entrenado con millones de textos que le permiten imitar estructuras lingüísticas convincentes. La diferencia clave es que los humanos usamos el lenguaje para expresar pensamientos; los chatbots solo predicen la siguiente palabra.
El problema de la ilusión de comprensión
Uno de los mayores riesgos, según Bender, es que los usuarios **sobrestiman las capacidades de estos sistemas**. Cuando un chatbot responde de manera coherente, es fácil atribuirle una comprensión que no existe. Esto lleva a situaciones peligrosas, como depender de ellos para asesoramiento médico o legal, donde los errores pueden tener consecuencias graves.
Bender advierte que las empresas detrás de estos modelos a menudo fomentan esta confusión con términos como «IA consciente» o «máquinas que piensan». Para ella, esto no es solo inexacto, sino **éticamente cuestionable**, porque genera expectativas irreales y desvía la atención de los problemas reales, como los sesgos en los datos de entrenamiento.
Los riesgos ocultos de la IA generativa
Sesgos y discriminación amplificados
Los modelos de lenguaje aprenden de los datos con los que se entrenan, y esos datos reflejan los prejuicios de la sociedad. Bender ha documentado cómo los chatbots **pueden reproducir racismo, sexismo u otros estereotipos** de manera inadvertida. Por ejemplo, si en los textos de entrenamiento hay asociaciones como «mujer» con «enfermera» y «hombre» con «ingeniero», el modelo perpetuará esos clichés.
Lo preocupante es que estos sesgos no siempre son evidentes. Un chatbot puede parecer neutral en superficie, pero sus respuestas **refuerzan desigualdades estructurales**. Bender argumenta que, sin una regulación clara, estas tecnologías podrían exacerbar problemas sociales en lugar de resolverlos.
El costo ambiental y humano
Otro aspecto que Bender destaca es el **impacto ecológico y laboral** de entrenar modelos masivos. Sistemas como GPT-3 requieren cantidades enormes de energía y recursos computacionales, lo que contribuye a la huella de carbono de la industria tecnológica. Además, el proceso de etiquetado de datos a menudo depende de trabajadores mal pagados en países en desarrollo, una realidad que rara vez se menciona en los anuncios de las grandes empresas.
Para Bender, ignorar estos costos es otra forma de **deshumanizar la tecnología**. «Hablamos de IA como si fuera magia, pero detrás hay personas reales y un planeta que
sufre las consecuencias», afirma con contundencia. Para ella, este discurso de «IA autónoma» oculta una realidad incómoda: la inteligencia artificial es, ante todo, un producto de decisiones humanas y recursos materiales finitos.
El llamado a la responsabilidad ética
Bender no propone abandonar estos desarrollos, sino reevaluar su propósito y transparencia:
Exigir auditorías independientes sobre fuentes de datos y huella ecológica.
Rechazar el antropomorfismo en el diseño de chatbots (evitar voces «humanizadas», avatares sonrientes).
Priorizar aplicaciones de impacto social real sobre usos triviales o especulativos.
En su reciente intervención en el Senado estadounidense, advirtió: «Cuando las empresas hablan de ‘alucinaciones’ de la IA, enmarcan el problema como un error técnico. Pero no son errores: son reflejos de datos contaminados por la desigualdad, y eso requiere acción política, no solo ajustes de código».
¿Hay futuro para una IA ética?
Bender cree que sí, pero bajo tres premisas:
Reconocer que el lenguaje no es un juego estadístico: Los sistemas deben diseñarse con participación de lingüistas y científicos sociales.
Centrarse en la asistencia, no en la sustitución: Herramientas para potenciar capacidades humanas (ej.: traductores para médicos), no chatbots que simulen ser terapeutas.
Regular el acceso a recursos computacionales: Gravar el entrenamiento de megamodelos para financiar investigación pública en alternativas eficientes.
La advertencia final
Mientras gigantes como OpenAI o Google prometen «inteligencia artificial general», Bender nos recuerda: «Ningún sistema que no experimente el mundo puede entenderlo. Confundir la destreza lingüística con la comprensión es como creer que un diccionario sabe llover». Su batalla no es contra la tecnología, sino contra la fantasía que nos impide ver sus límites —y sus costos reales—.