## La advertencia de un experto sobre el uso incorrecto de la IA
En una entrevista reciente con **El Confidencial**, Jon Hernández, reconocido especialista en **inteligencia artificial**, ha lanzado una advertencia que debería hacernos reflexionar sobre cómo estamos utilizando herramientas como **ChatGPT** en nuestra vida diaria. Según Hernández, el error fundamental que comete la mayoría de usuarios es tratar estos sistemas de IA como motores de búsqueda tradicionales o fuentes de conocimiento verificadas, cuando en realidad son algo completamente diferente.
La popularización de **ChatGPT** y otras herramientas similares ha creado un fenómeno sin precedentes en la historia de la tecnología. Nunca antes una herramienta tan poderosa había estado disponible de forma masiva y gratuita para el público general. Sin embargo, esta accesibilidad viene acompañada de un problema significativo: la falta de comprensión sobre lo que realmente son estos sistemas y cuáles son sus limitaciones fundamentales.
## ¿Qué son realmente los modelos de lenguaje como ChatGPT?
Para entender por qué Hernández considera problemático el uso actual de estas herramientas, primero debemos comprender qué son realmente. Los **modelos de lenguaje grande** como ChatGPT no son bases de datos ni enciclopedias digitales. Tampoco son sistemas que «piensen» o «razonen» en el sentido humano del término. Son, esencialmente, sistemas estadísticos entrenados para predecir la palabra más probable que debería seguir en una secuencia de texto.
Estos modelos han sido alimentados con cantidades masivas de texto proveniente de internet, libros, artículos científicos y prácticamente cualquier documento digital al que sus creadores han podido acceder. Durante el entrenamiento, el sistema aprende patrones, estructuras lingüísticas y relaciones entre conceptos, pero no «aprende» hechos en el sentido tradicional. Lo que hace es mapear la probabilidad de que ciertas palabras aparezcan juntas en contextos específicos.
La diferencia fundamental entre un motor de búsqueda como **Google** y un modelo de lenguaje como **ChatGPT** radica en su funcionamiento interno. Mientras Google indexa y recupera información existente, ChatGPT genera texto nuevo basado en patrones estadísticos. Esta distinción es crucial y, según Hernández, es lo que la mayoría de usuarios no termina de entender.
## El problema de tratar a ChatGPT como fuente de conocimiento
Cuando utilizamos **ChatGPT** para buscar información sobre un tema específico, estamos cometiendo un error conceptual grave. El modelo no está accediendo a una base de datos de hechos verificados, sino generando respuestas que «suenan» plausibles basándose en los patrones que ha aprendido durante su entrenamiento. Esto puede llevar a lo que se conoce como **alucinaciones** o **fabricaciones**, donde el modelo genera información que parece verosímil pero que es completamente inventada.
Hernández explica que este fenómeno es particularmente peligroso porque las respuestas de ChatGPT suenan extremadamente convincentes y autorizadas. El modelo tiene la capacidad de presentar información falsa con la misma confianza y coherencia que la información verdadera, lo que hace muy difícil para un usuario promedio distinguir entre ambas. A diferencia de una búsqueda en Google, donde podemos ver las fuentes y evaluar su credibilidad, con ChatGPT recibimos una respuesta que parece definitiva pero que carece de referencias verificables.
Otro aspecto problemático que señala el experto es la **falta de actualización** en tiempo real de estos modelos. Aunque algunas versiones premium pueden acceder a internet, la mayoría de usuarios utiliza versiones que tienen un conocimiento congelado en el tiempo de su última fecha de entrenamiento. Esto significa que cualquier evento, descubrimiento o desarrollo ocurrido después de esa fecha simplemente no existe para el modelo, aunque pueda inventar respuestas plausibles sobre ellos.
## Las consecuencias prácticas del mal uso
Las implicaciones de utilizar **ChatGPT** como fuente de conocimiento son más serias de lo que podríamos pensar inicialmente. En el ámbito educativo, cada vez más estudiantes recurren a estas herramientas para hacer sus tareas e investigaciones, sin ser conscientes de que pueden estar incorporando información errónea en sus trabajos. Los profesores se enfrentan al desafío de evaluar trabajos que pueden contener datos inventados pero presentados de manera convincente.















