La inteligencia artificial generativa ha sido, sin duda, uno de los temas tecnológicos más comentados y esperados en los últimos años. Desde que OpenAI lanzó ChatGPT a finales de 2022, el mundo no ha dejado de hablar de sus capacidades, limitaciones y el impacto que está teniendo en industrias como la educación, el marketing, el desarrollo de software y hasta el entretenimiento. La expectación por cada nueva versión es enorme, y ahora, con el supuesto lanzamiento de **ChatGPT-5** en el horizonte, muchos se preguntan si realmente cumplirá con las altas expectativas o si, por el contrario, terminará siendo un fiasco.
Hay varias razones por las que existe un escepticismo creciente alrededor de esta nueva entrega. No se trata solo de si la tecnología será lo suficientemente avanzada, sino de factores como la saturación del mercado, las promesas incumplidas de iteraciones anteriores, los desafíos éticos no resueltos y la posible desconexión entre lo que OpenAI anuncia y lo que realmente ofrece. En este artículo, analizaremos en profundidad por qué el lanzamiento de ChatGPT-5 podría no estar a la altura del bombo publicitario que lo precede.
##Expectativas desbordadas y la ley de los rendimientos decrecientes
Uno de los mayores problemas a los que se enfrenta OpenAI con el lanzamiento de ChatGPT-5 es la llamada **ley de los rendimientos decrecientes**. Las primeras versiones de ChatGPT representaron saltos cualitativos enormes. Pasar de no tener un modelo de lenguaje accesible al público a contar con uno capaz de mantener conversaciones coherentes, redactar textos complejos e incluso escribir código fue revolucionario. Luego, GPT-4 mejoró significativamente en precisión, contexto y reducción de alucinaciones (cuando el modelo inventa información).
Sin embargo, cada mejora incremental es menos perceptible para el usuario promedio. GPT-4 ya es tan bueno en muchas tareas que las mejoras en GPT-5, aunque técnicamente significativas, podrían no ser lo suficientemente evidentes para justificar el revuelo. ¿Realmente notará la diferencia un estudiante que usa el chatbot para redactar ensayos? ¿O un desarrollador que lo emplea para depurar código? Es posible que las mejoras sean marginales en la experiencia cotidiana, lo que llevaría a una sensación de decepción.
Además, OpenAI ha alimentado esta expectativa desmedida. A través de filtraciones estratégicas y declaraciones grandilocuentes, han creado la idea de que GPT-5 será una suerte de «inteligencia artificial general» (AGI) en ciernes, capaz de razonar y entender el mundo de forma casi humana. Prometer algo tan ambicioso es un arma de doble filo: si el modelo no muestra capacidades revolucionarias, el público y la prensa lo tacharán de fracaso, incluso si técnicamente es superior a todo lo existente.
##Problemas éticos y regulatorios sin resolver
OpenAI no solo se enfrenta a desafíos técnicos y de expectativas, sino también a un panorama regulatorio cada vez más hostil y a debates éticos que distan mucho de estar cerrados. **GPT-4 ya fue objeto de críticas** por sus sesgos, su potencial para generar desinformación y su impacto en el mercado laboral. Con GPT-5, estos problemas no solo persistirán, sino que se amplificarán.
La Unión Europea, con su **Ley de Inteligencia Artificial**, y Estados Unidos, con sus primeras iniciativas regulatorias, están mirando muy de cerca el desarrollo de modelos de IA grandes y potencialmente peligrosos. Es posible que GPT-5 enfrente restricciones de lanzamiento en ciertas regiones, o que tenga capacidades limitadas para cumplir con estas nuevas normas. Un modelo más potente pero más censurado y restringido podría generar frustración entre los usuarios que esperaban una herramienta libre y abierta.