Si has estado siguiendo el mundo de la inteligencia artificial últimamente, seguro que has oído hablar de OpenAI, la empresa detrás de ChatGPT. Pero más allá de los titulares rimbombantes sobre chatbots que escriben poemas o generan imágenes que parecen sacadas de un sueño, hay una noticia que está moviendo los cimientos de todo el sector: los creadores de ChatGPT quieren cambiar el futuro de la IA. Y no, no hablamos de hacerla más potente para que nos responda en un millón de idiomas a la vez, sino de algo mucho más sutil pero igual de revolucionario: adiós a la potencia bruta, hola al control.
Parece contradictorio, ¿verdad? Durante años, la carrera tecnológica ha sido una competición para ver quién construye el modelo más grande, con más parámetros, capaz de procesar más datos en menos tiempo. Pero OpenAI, en un giro inesperado que está dejando boquiabiertos a los expertos, está poniendo el foco en la eficiencia y la regulación. ¿El objetivo? Hacer que la inteligencia artificial no solo sea más inteligente, sino también más segura, más predecible y menos hambrienta de recursos. Porque, seamos sinceros, la potencia desmedida sin control es como tener un coche de Fórmula 1 sin frenos: emocionante al principio, pero terminas estrellándote.
Este artículo profundiza en esta nueva filosofía de OpenAI, desgranando qué significa realmente «decir adiós a la potencia» y por qué el control se ha convertido en la nueva obsesión de la empresa que nos regaló a ChatGPT. Prepárate para un viaje por los entresijos de la inteligencia artificial de vanguardia, donde los chips más rápidos ya no son la estrella, sino la capacidad de domar a la bestia que hemos creado.
##¿Por qué OpenAI quiere frenar la carrera de la potencia?
Para entender este cambio de rumbo, primero tenemos que echar la vista atrás. Cuando OpenAI lanzó GPT-3 en 2020, fue como si hubieran detonado una bomba nuclear en el mundo de la tecnología. Un modelo con 175 mil millones de parámetros, capaz de generar texto con una fluidez que asustaba. Luego llegó GPT-4, aún más grande, más rápido, más impresionante. Pero cada salto de potencia venía acompañado de un coste descomunal: energía, dinero en servidores, tiempo de entrenamiento. Y, lo que es más importante, una imprevisibilidad creciente.
El problema con la potencia bruta es que, cuanto más grande es el modelo, más difícil es entender por qué hace lo que hace. Es como tener un genio de la lámpara que te concede deseos, pero a veces te sale rana y te convierte en un sapo sin que sepas muy bien por qué. OpenAI se ha dado cuenta de que construir modelos cada vez más grandes no es sostenible ni seguro. La gente no necesita una inteligencia artificial que sepa todo sobre todo, sino una que haga lo que se le pide sin desviarse, sin alucinar información, sin generar sesgos peligrosos.
Así que la empresa ha decidido girar el timón. En lugar de centrarse en aumentar el número de parámetros, están invirtiendo en técnicas de control. Esto significa investigar cómo alinear los modelos con los valores humanos, cómo hacer que sean más transparentes en sus procesos de decisión y cómo reducir su consumo energético sin sacrificar la calidad. En otras palabras, quieren que la IA sea más un perro bien adiestrado que un león salvaje al que le has dado esteroides.
###El coste energético de la inteligencia artificial
Uno de los motores principales de este cambio es el coste energético. No es ningún secreto que entrenar un modelo como GPT-4 requiere una cantidad de electricidad que podría alimentar a un pequeño país. Y luego está la ejecución: cada vez que le haces una pregunta a ChatGPT, se encienden servidores en alguna parte del mundo que consumen recursos. Con la creciente preocupación por el cambio climático, tener una tecnología que sea tan glotona de energía empieza a ser un problema de imagen y de viabilidad a largo plazo.

















