La voz crítica que desafía el entusiasmo por la inteligencia artificial
Emily Bender no es una figura cualquiera en el mundo de la inteligencia artificial. Como profesora de lingüística en la Universidad de Washington y directora del **Laboratorio de Lingüística Computacional**, su trabajo se ha centrado en analizar cómo los sistemas de lenguaje procesan y generan texto. Pero lo que la ha convertido en una figura polémica es su postura crítica hacia los modelos de lenguaje como **ChatGPT, Gemini o Claude**, a los que considera herramientas sobrevaloradas y, en muchos casos, peligrosamente malinterpretadas.
Bender no niega el avance tecnológico, pero insiste en que estos sistemas no «entienden» el lenguaje como los humanos. Su crítica va más allá del escepticismo académico: advierte sobre los riesgos de atribuir capacidades humanas a máquinas que, en realidad, solo predicen palabras basándose en patrones estadísticos. En un mundo obsesionado con la IA, su voz es un recordatorio incómodo de que la tecnología tiene límites.
¿Por qué Emily Bender cuestiona los chatbots?
Los chatbots no piensan, solo predicen
Uno de los argumentos centrales de Bender es que los modelos de lenguaje **no tienen comprensión real**. Cuando ChatGPT responde una pregunta, no está razonando como lo haría una persona, sino calculando qué combinación de palabras es más probable que siga a la anterior. Es como un juego de autocompletado sofisticado, pero sin conciencia, intención o conocimiento del mundo.
Esta distinción es crucial porque, según Bender, lleva a malentendidos peligrosos. Muchos usuarios (e incluso algunas empresas) tratan a estos sistemas como si fueran **oráculos infalibles**, cuando en realidad son propensos a errores, sesgos y alucinaciones (respuestas inventadas que suenan convincentes pero son falsas).
El problema de la «ilusión de inteligencia»
Bender acuñó el término **»estocasticidad parlanchina»** para describir cómo los chatbots generan texto persuasivo sin realmente entenderlo. La fluidez de sus respuestas crea la ilusión de que «saben» lo que dicen, cuando en realidad están recombinando información de sus datos de entrenamiento.
Esto tiene consecuencias prácticas: desde estudiantes que confían en respuestas incorrectas hasta empresas que automatizan procesos críticos con sistemas que **no pueden distinguir entre hechos y ficción**. Bender insiste en que, sin una comprensión real, estos modelos no deberían usarse en contextos donde los errores tienen consecuencias graves, como la medicina o el derecho.
Los riesgos de sobrestimar la IA
Sesgos y discriminación amplificados
Otro de los puntos que Bender destaca es cómo los modelos de lenguaje **replican y amplifican los sesgos** presentes en sus datos de entrenamiento. Si los textos con los que se alimentan contienen prejuicios raciales, de género o ideológicos, los chatbots los reproducirán, a veces de formas sutiles y otras de manera explícita.
Esto no es un fallo técnico, sino una consecuencia inevitable de cómo funcionan estos sistemas. Bender argumenta que, al comercializarlos como herramientas neutrales, las empresas ocultan un problema estructural: **la IA no es objetiva**, porque refleja los sesgos de la sociedad que la crea.
El peligro de la automatización sin supervisión
Bender también alerta sobre la tendencia a **automatizar decisiones humanas** con IA sin suficiente transparencia. Desde filtros de contratación hasta sistemas de vigilancia, muchas organizaciones implementan algoritmos sin entender cómo toman sus decisiones.
Su crítica no es contra la tecnología en sí, sino contra la **fe ciega** en que la IA puede reemplazar el juicio humano. «No podemos delegar responsabilidades éticas en máquinas que no tienen conciencia ni empatía», ha dicho en múltiples entrevistas.