Emily Bender, la académica de la IA convertida en escéptica de la IA: «Los chatbots no son más que…

¿Quién es Emily Bender y por qué su opinión importa?

Emily Bender no es una voz cualquiera en el mundo de la inteligencia artificial. Como profesora de lingüística en la Universidad de Washington y directora del **Computational Linguistics Laboratory**, lleva años investigando cómo el lenguaje humano interactúa con la tecnología. Su trabajo académico la ha convertido en una de las críticas más vocalizadas contra la narrativa dominante que rodea a los chatbots y modelos de lenguaje como GPT-3 o GPT-4.

Lo que hace única su perspectiva es que no proviene de un tecnólogo puro, sino de alguien que entiende el lenguaje desde sus raíces. Bender no niega los avances técnicos, pero insiste en que **confundir la capacidad de generar texto coherente con inteligencia real es un error peligroso**. Su famoso artículo *»On the Dangers of Stochastic Parrots»* (junto a Timnit Gebru y otros) desmontó mitos sobre cómo funcionan realmente estos sistemas.

Los chatbots no son inteligentes, son «loros estocásticos»

¿Qué significa «loro estocástico»?

Este término, acuñado por Bender, es una metáfora demoledora: los modelos de lenguaje **no comprenden lo que dicen**, sino que repiten patrones aprendidos de manera probabilística (de ahí «estocástico»). Como un loro que habla sin entender las palabras, estos sistemas generan respuestas basadas en estadísticas, no en razonamiento.

Bender explica que, aunque un chatbot pueda redactar un ensayo sobre filosofía o resolver un problema matemático, **no hay conciencia detrás**. Simplemente, ha sido entrenado con millones de textos que le permiten imitar estructuras lingüísticas convincentes. La diferencia clave es que los humanos usamos el lenguaje para expresar pensamientos; los chatbots solo predicen la siguiente palabra.

El problema de la ilusión de comprensión

Uno de los mayores riesgos, según Bender, es que los usuarios **sobrestiman las capacidades de estos sistemas**. Cuando un chatbot responde de manera coherente, es fácil atribuirle una comprensión que no existe. Esto lleva a situaciones peligrosas, como depender de ellos para asesoramiento médico o legal, donde los errores pueden tener consecuencias graves.

Bender advierte que las empresas detrás de estos modelos a menudo fomentan esta confusión con términos como «IA consciente» o «máquinas que piensan». Para ella, esto no es solo inexacto, sino **éticamente cuestionable**, porque genera expectativas irreales y desvía la atención de los problemas reales, como los sesgos en los datos de entrenamiento.

Los riesgos ocultos de la IA generativa

Sesgos y discriminación amplificados

Los modelos de lenguaje aprenden de los datos con los que se entrenan, y esos datos reflejan los prejuicios de la sociedad. Bender ha documentado cómo los chatbots **pueden reproducir racismo, sexismo u otros estereotipos** de manera inadvertida. Por ejemplo, si en los textos de entrenamiento hay asociaciones como «mujer» con «enfermera» y «hombre» con «ingeniero», el modelo perpetuará esos clichés.

Lo preocupante es que estos sesgos no siempre son evidentes. Un chatbot puede parecer neutral en superficie, pero sus respuestas **refuerzan desigualdades estructurales**. Bender argumenta que, sin una regulación clara, estas tecnologías podrían exacerbar problemas sociales en lugar de resolverlos.

El costo ambiental y humano

Otro aspecto que Bender destaca es el **impacto ecológico y laboral** de entrenar modelos masivos. Sistemas como GPT-3 requieren cantidades enormes de energía y recursos computacionales, lo que contribuye a la huella de carbono de la industria tecnológica. Además, el proceso de etiquetado de datos a menudo depende de trabajadores mal pagados en países en desarrollo, una realidad que rara vez se menciona en los anuncios de las grandes empresas.

Para Bender, ignorar estos costos es otra forma de **deshumanizar la tecnología**. «Hablamos de IA como si fuera magia, pero detrás hay personas reales y un planeta que

sufre las consecuencias», afirma con contundencia. Para ella, este discurso de «IA autónoma» oculta una realidad incómoda: la inteligencia artificial es, ante todo, un producto de decisiones humanas y recursos materiales finitos.

El llamado a la responsabilidad ética

Bender no propone abandonar estos desarrollos, sino reevaluar su propósito y transparencia:

Exigir auditorías independientes sobre fuentes de datos y huella ecológica.
Rechazar el antropomorfismo en el diseño de chatbots (evitar voces «humanizadas», avatares sonrientes).
Priorizar aplicaciones de impacto social real sobre usos triviales o especulativos.
En su reciente intervención en el Senado estadounidense, advirtió: «Cuando las empresas hablan de ‘alucinaciones’ de la IA, enmarcan el problema como un error técnico. Pero no son errores: son reflejos de datos contaminados por la desigualdad, y eso requiere acción política, no solo ajustes de código».

¿Hay futuro para una IA ética?

Bender cree que sí, pero bajo tres premisas:

Reconocer que el lenguaje no es un juego estadístico: Los sistemas deben diseñarse con participación de lingüistas y científicos sociales.
Centrarse en la asistencia, no en la sustitución: Herramientas para potenciar capacidades humanas (ej.: traductores para médicos), no chatbots que simulen ser terapeutas.
Regular el acceso a recursos computacionales: Gravar el entrenamiento de megamodelos para financiar investigación pública en alternativas eficientes.

La advertencia final

Mientras gigantes como OpenAI o Google prometen «inteligencia artificial general», Bender nos recuerda: «Ningún sistema que no experimente el mundo puede entenderlo. Confundir la destreza lingüística con la comprensión es como creer que un diccionario sabe llover». Su batalla no es contra la tecnología, sino contra la fantasía que nos impide ver sus límites —y sus costos reales—.

Otras publicaciones ...

te invitamos a conocer

Nuestro canal de Youtube

Pulsa aquí
He probado la ia musical de 2026: mureka v9 es de otro planeta

He probado la ia musical de 2026: mureka v9 es de otro planeta

¿Te imaginas crear un hit nivel Grammy por accidente desde tu habitación? Acabo de probar Mureka V9 y la experiencia es, sencillamente,...

Flova lanza Seedance 2.0, la IA que está cambiando la forma de crear vídeo

Flova lanza Seedance 2.0, la IA que está cambiando la forma de crear vídeo

Google tiene un nuevo método para que la IA consuma mucha menos memoria

Google tiene un nuevo método para que la IA consuma mucha menos memoria

La carrera por desarrollar inteligencia artificial más potente y eficiente acaba de dar un giro trascendental. Google, uno de los...

¿La IA amenaza el empleo? Cada vez más economistas lo piensan

¿La IA amenaza el empleo? Cada vez más economistas lo piensan

La pregunta ya no es un ejercicio de ciencia ficción, sino el centro de un debate económico urgente. Mientras lees...

Samsung entra en modo de emergencia: ni siquiera el histórico éxito del Galaxy S26 es suficiente hoy en día

Samsung entra en modo de emergencia: ni siquiera el histórico éxito del Galaxy S26 es suficiente hoy en día

El panorama tecnológico es un océano en constante ebullición, donde navegar con éxito requiere no solo de un timón firme,...

Aplicaciones de ChatGPT: qué son y cómo usarlas para darles más funciones a ChatGPT

Aplicaciones de ChatGPT: qué son y cómo usarlas para darles más funciones a ChatGPT

Imagina que tu ChatGPT, ese asistente conversacional que ya conoces, pudiera de repente no solo escribir correos o resumir textos,...

Los profesores de la enseñanza pública harán con una IA oficial la primera evaluación de los alumnos

Los profesores de la enseñanza pública harán con una IA oficial la primera evaluación de los alumnos

El sistema educativo español está a punto de dar un paso histórico hacia la digitalización. Según ha informado EL PAÍS,...

Meta y Google, condenadas por fomentar la adicción a las redes sociales en una histórica sentencia

Meta y Google, condenadas por fomentar la adicción a las redes sociales en una histórica sentencia

El panorama digital ha recibido un terremoto jurídico de magnitudes históricas. Un tribunal federal de los Estados Unidos ha emitido...

Si ahora odias Windows 11, es muy posible que Windows 12 te guste menos aún

Si ahora odias Windows 11, es muy posible que Windows 12 te guste menos aún

La relación de los usuarios con Windows 11 ha sido, cuanto menos, complicada. Desde su lanzamiento, el sistema operativo de...

Tapo C260: Vigilancia 4K y Precisión con IA en la palma de tu mano

Tapo C260: Vigilancia 4K y Precisión con IA en la palma de tu mano

En un mercado saturado de cámaras de vigilancia que prometen mucho y cumplen poco, la Tapo C260 se posiciona como...

Cómo crear webs rentables con Google Maps y ChatGPT

Cómo crear webs rentables con Google Maps y ChatGPT

¿Te has fijado alguna vez en cuántos negocios excelentes tienen una página web que parece del siglo pasado o, peor...

Genspark ai: la revolución de la productividad en 2026

Genspark ai: la revolución de la productividad en 2026

¿Te imaginas tener un asistente que no solo responda preguntas, sino que diseñe soluciones completas por ti? Hoy te presento...

Qué es Medeo AI y cómo puede transformar tu creación de contenido

Qué es Medeo AI y cómo puede transformar tu creación de contenido

¿Te imaginas convertir un simple texto o un enlace de tu blog en un vídeo profesional en menos de lo...

Android 17 ya está aquí: la primera beta llega a los Google Pixel y anticipa el calendario de actualizaciones – Xataka Móvil

Android 17 ya está aquí: la primera beta llega a los Google Pixel y anticipa el calendario de actualizaciones – Xataka Móvil

El ciclo anual de Android no se detiene, y justo cuando la mayoría de usuarios está empezando a saborear las...

¿Adiós a POP3 en Gmail? Cómo afecta el reenvío automático desde Hostinger (y qué debes saber)

¿Adiós a POP3 en Gmail? Cómo afecta el reenvío automático desde Hostinger (y qué debes saber)

Si tienes tu correo profesional configurado en Hostinger y utilizas el reenvío automático para recibir todos tus mensajes en tu...

Estudiar en tiempos de IA: «Nunca ha sido tan fácil aprobar, pero tan difícil aprender»

Estudiar en tiempos de IA: «Nunca ha sido tan fácil aprobar, pero tan difícil aprender»

#Estudiar en tiempos de IA: "Nunca ha sido tan fácil aprobar, pero tan difícil aprender" El titular de **El Mundo**...

Telefónica y OpenAI se alían para que todos los clientes de Movistar tengan acceso a ChatGPT Plus

Telefónica y OpenAI se alían para que todos los clientes de Movistar tengan acceso a ChatGPT Plus

El panorama tecnológico acaba de presenciar uno de esos movimientos estratégicos que redefinen el acceso a la inteligencia artificial para...

Android 17 ya está aquí: la primera beta llega a los Google Pixel y anticipa el calendario de actualizaciones

Android 17 ya está aquí: la primera beta llega a los Google Pixel y anticipa el calendario de actualizaciones

El ciclo anual de Android no se detiene, y justo cuando la mayoría de usuarios está empezando a saborear las...