En un mundo donde la inteligencia artificial se ha convertido en la nueva fiebre del oro tecnológico, donde empresas y usuarios corren para adoptar las últimas herramientas de generación de contenido, surge una voz que nos invita a hacer una pausa y reflexionar. Milagros Miceli, investigadora argentina y una de las expertas más respetadas en el campo de la ética de la inteligencia artificial, ha tomado una decisión que podría sorprender a muchos: ella no utiliza ChatGPT.
Esta posición no surge del desconocimiento o del rechazo tecnológico, sino de un profundo entendimiento de los mecanismos que hacen funcionar estos sistemas y de las implicaciones que tienen en nuestra sociedad. Miceli, quien actualmente dirige investigaciones en el prestigioso Instituto Weizenbaum de Berlín, representa esa rareza en el ecosistema tecnológico: alguien que conoce tan íntimamente la tecnología que decide conscientemente limitar su uso.
Su trabajo se centra en desentrañar los sesgos y las injusticias que se reproducen a través de los sistemas de IA, especialmente aquellos que afectan a comunidades marginadas. Desde esta posición privilegiada de conocimiento, su decisión de no utilizar herramientas como ChatGPT adquiere un peso especial, transformándose en un acto político y ético que desafía la narrativa dominante de la adopción tecnológica sin cuestionamientos.
##La paradoja del experto que no usa lo que estudia
Resulta fascinante encontrarse con una profesional que dedica su vida a investigar sistemas de inteligencia artificial pero que elige conscientemente no utilizar las herramientas más populares de este campo. Milagros Miceli explica esta aparente contradicción con una claridad que desarma: «No uso ChatGPT, es un poco mi consumo consciente». Esta frase, aparentemente simple, encierra una postura profundamente meditada sobre nuestra relación con la tecnología.
Para Miceli, esta decisión forma parte de un consumo tecnológico consciente, similar a cómo algunas personas deciden reducir su consumo de plástico o elegir productos de comercio justo. Se trata de una postura ética que reconoce que cada elección de consumo, incluso en el ámbito digital, tiene consecuencias que van más allá de nuestra experiencia inmediata. En el caso de ChatGPT y herramientas similares, estas consecuencias incluyen desde el impacto ambiental de los centros de datos hasta las condiciones laborales de los moderadores de contenido y los anotadores de datos.
Su posición nos invita a preguntarnos: ¿realmente necesitamos utilizar IA para cada tarea? ¿O estamos cayendo en un uso superfluo que normaliza sistemas cuyos impactos negativos aún no comprendemos completamente? Miceli no rechaza la tecnología por completo -su trabajo demuestra lo contrario- sino que aboga por un uso deliberado y crítico, donde cada interacción con estos sistemas sea el resultado de una elección consciente y no de un impulso automatizado.
##Los cimientos ocultos de la inteligencia artificial
Para comprender por qué una experta como Milagros Miceli toma la decisión de no usar ChatGPT, es esencial entender qué hay detrás del funcionamiento de estos sistemas. La inteligencia artificial, especialmente los modelos de lenguaje grande como GPT-4, no surge de la nada. Se alimenta de cantidades masivas de datos extraídos de internet, libros, artículos y prácticamente cualquier texto disponible digitalmente.
Estos datos son procesados por trabajadores humanos, muchos de ellos en condiciones laborales precarias y con salarios bajos, quienes se encargan de limpiar, etiquetar y categorizar la información. Miceli ha dedicado parte de su investigación a documentar estas condiciones laborales, mostrando cómo el brillo futurista de la IA esconde realidades laborales que distan mucho de ser futuristas.
Pero el problema no termina ahí. Estos sistemas aprenden de nuestros patrones de lenguaje, de nuestras conversaciones, de nuestros textos, replicando y amplificando los sesgos presentes en la sociedad. Si internet está lleno de contenido sexista, racista o clasista, la IA aprenderá estos patrones y los reproducirá, a menudo de formas más sutiles y por tanto más peligrosas. Miceli argumenta que al usar estas herramientas sin cuestionamiento, nos convertimos en cómplices de este ciclo de perpetuación de desigualdades.
















