AGI es un término clave en el discurso de Sam Altman (director de la empresa detrás de ChatGPT) y varios líderes tecnológicos. Este acrónimo de Inteligencia Artificial General es la palabra que más se repite en el manifiesto de OpenAI. Según la empresa, es el acta que les guía en sus acciones para “el mejor interés de la humanidad a través de su desarrollo”.
En este documento sagrado para ellos y que citan en cada entrevista, AGI se repite 12 veces. Sólo después, con menos de la mitad de menciones viene “AI”, el siguiente término más repetido en este texto corto de 15 frases y 416 palabras.
La Inteligencia Artificial General ha vuelto a saltar a la actualidad por ‘Sparks of Artificial General Intelligence: Early experiments with GPT-4’, un estudio poco imparcial publicado por científicos de Microsoft (empresa que ha invertido 13.000 millones de dólares en OpenAI y tiene un acuerdo exclusivo para el uso de su IA) en el que aseguran que han visto chispas o destellos (sparks) de la AGI en GPT-4, el modelo de lenguaje más avanzado de OpenAI, que está usando ChatGPT en su versión de pago.
IA no es igual que AGI
La Inteligencia Artificial General es un concepto que apareció el mismo año en que un ordenador ganó por primera vez al ajedrez a un ser humano. Era 1997 y el ajedrecista Gary Kasparov había sido derrotado por una inteligencia impresionante que dejó al mundo con la boca abierta, pero que sólo sabía jugar al ajedrez. El tipo de inteligencia artificial que está diseñada para ejecutar una tarea y resolver un problema específico se llama IA estrecha (narrow) o débil, y es la clase de inteligencia artificial que nos rodea desde entonces.
Este tipo de IA es tan corriente que casi ni nos damos cuenta de que está ahí. La encontramos en distintas aplicaciones: altavoces que ponen la música que les pedimos, correctores ortográficos que nos sugieren cómo saludar para cerrar un email, asistentes en la conducción que nos indican qué ruta coger para llegar más rápido a nuestro destino, etc.
Pero la ciencia ficción nos ha mostrado que una IA podría ser más que eso. Libros y películas distópicas han imaginado inteligencias artificiales superpoderosas -y más bien malignas y rebeldes- que ya son parte del imaginario colectivo. Encontramos rápidamente referencias en Skynet en la saga Terminator y en HAL9000 en 2001: Odisea del Espacio.
Qué es la Inteligencia Artificial General o AGI
A diferencia de la inteligencia que sólo sabe hacer una sola cosa, como jugar al ajedrez, este tipo de inteligencia que iguala o excede la inteligencia humana media es la AGI, también llamada inteligencia de propósito general.
Una inteligencia de este tipo sería capaz de entender el mundo, de tener sentido común, de gestionar varios tipos de aprendizaje por sí misma, de comprender sistemas simbólicos y usar conocimiento metacognitivo. Es una máquina que puede educarse a sí misma con una velocidad inaudita y multiplicar sus capacidades en poco tiempo. La llegada de la AGI tendrá indudablemente consecuencias de largo alcance para la humanidad.
Desde hace unos años, la AGI es el objetivo último de muchos investigadores en IA y manifiestamente el de OpenAI, que declara querer ser el primero en construir una AGI para asegurarse de que será beneficiosa para toda la humanidad.
La AGI ha sido definida por varios autores originalmente como un hipotético agente inteligente capaz de entender o aprender cualquier tarea intelectual que puedan realizar los seres humanos. OpenAI ha introducido una variante y considera AGI a un sistema autónomo que sobrepase las capacidades humanas en la mayoría de los trabajos económicamente valiosos.
Qué hay de los sueños de futuro de OpenAI en GPT-4 y GPT-5
En el área de la inteligencia artificial hay aún más preguntas que respuestas. Científicos, desarrolladores y tecnólogos avanzan mientras seguimos debatiendo conceptos que van mucho más allá de la tecnología. Desde que Alan Turing propusiera un test ante la difícil pregunta de si una máquina puede pensar, muchos autores desde distintas disciplinas han debatido sobre qué nos hace humanos y cómo tiene que ser una máquina que pretenda imitar a un ser humano.
¿Cómo sabremos que una inteligencia artificial es similar o superior a la nuestra? ¿Hay un solo tipo de inteligencia? ¿Cómo nos relacionaremos los humanos con ese tipo de inteligencia? ¿Será posible que un software o una máquina desarrollen una conciencia? ¿Sería la conciencia lo que hace a alguien humano? ¿Qué es una conciencia, de todas maneras? Entre investigadores, científicos y filósofos aún no hay consenso en estos temas.
También el momento en el tiempo en el que llegará la AGI sigue siendo una cuestión de debate entre investigadores. Algunos consideran que GPT-4 ha sido un salto y que podremos ver AGI con GPT-5, la próxima evolución de GPT; otros que estamos a pocos años o décadas de la AGI, otros a siglos, y una minoría cree que es algo que nunca sucederá.
Muchas de las conversaciones recientes sobre AGI han surgido a partir del estudio publicado por Microsoft sobre los ‘destellos’ de AGI en GPT-4. Sus firmantes dicen que “puede resolver tareas novedosas y difíciles que abarcan las matemáticas, la codificación, la visión, la medicina, el derecho y la psicología, entre otras, sin necesidad de instrucciones especiales” y que su rendimiento es “sorprendentemente similar al humano”.
Gary Markus, pensador norteamericano y uno de los popes de IA, no les cree. Observa que la página web de ChatGPT advierte cuidadosamente de sus fallos pero luego sus responsables en entrevistas dejan caer lo cerca que estamos de la AGI y dan la impresión de que hemos progresado en este frente. “Es una campaña mediática calculada para hacernos pensar que estamos cerca de la AGI, que hay más de lo que en realidad hay”, ha dicho Markus a El Confidencial.
¿Puede ser GPT-4 una AGI?
“GPT-4 no es una AGI, qué va”, dice Ariel Guersenzvaig, experto en ética del diseño y la tecnología y profesor en ELISAVA, que recuerda que GPT-4 es un modelo de lenguaje, un sistema que produce textos basados en combinaciones de palabras y frases haciendo cálculos estadísticos, pero no tiene un entendimiento de esa respuesta.
“Una cuestión importante humana es la capacidad de definir planes para ejecutar tus objetivos. Lo que ChatGPT puede hacer perfectamente es hacer un plan, por ejemplo, para hacerse abogado. Pero te lo dirá porque se ha basado en gente que ha escrito sobre eso. No porque tenga ese conocimiento y pueda generar ese plan. Al final es un loro estocástico, genera en base a cálculos estadísticos una respuesta que es plausible y razonable incluso, pero eso no significa que esa respuesta sea una respuesta generada a partir del conocimiento, sino que está generada a partir de los entrenamientos”, explica.
“No hay consenso en lo que es una AGI y seguramente todavía no hay ninguna AGI”, dice el profesor, que califica el estudio de Microsoft de una exageración absoluta y una fan fiction total. La cuestión es que aún no hay una manera de saber qué es una AGI más allá de decir que es “como la inteligencia de un ser humano o superior”. No hay manera de medir algo así, según Guersenzvaig.
Como nos obsesiona saber lo cerca que está una AI de parecer humana, desde que ChatGPT se presentó en sociedad le hemos hecho tests y exámenes. Ha aprobado muchos de ellos, aunque hayamos tenido que modificar la forma en que le preguntamos, como aquel para una asignatura de grado en ESADE que le hicimos en Newtral.es.
¿Qué tipo de pruebas podemos hacerle a una AI para saber si es AGI? Guersenzvaig no cree que las evaluaciones como la de ESADE sean útiles para las IA. Explica que los tests que se están aplicando a este tipo de IA tienen un problema de validez, porque están pensados para funcionar con seres humanos.
“Si quieres saber cuál es el estado aeróbico de una persona le haces el test de Cooper, porque eso está correlacionado con lo que puede correr una persona y su estado físico”, grafica Guersenzvaig. “Pero no le harías correr eso a una moto, no tiene sentido, porque ese test está pensado para ser medido con seres humanos, no con máquinas. Lo que se está haciendo con las IA es parecido. No tiene validez de constructo”, zanja.
- Ariel Guersenzvaig, experto en ética del diseño y la tecnología y profesor en ELISAVA
- OpenAI Charter
- Sparks of Artificial General Intelligence: Early experiments with GPT-4, Sébastien Bubeck, Varun Chandrasekaran, Ronen Eldan, Johannes Gehrke, Eric Horvitz, Ece Kamar, Peter Lee, Yin Tat Lee, Yuanzhi Li, Scott Lundberg, Harsha Nori, Hamid Palangi, Marco Tulio Ribeiro, Yi Zhang
- Microsoft Researchers Claim GPT-4 Is Showing «Sparks» of AGI
- Shevlin H, Vold K, Crosby M, Halina M. The limits of machine intelligence: Despite progress in machine intelligence, artificial general intelligence is still a major challenge. EMBO Rep. 2019 Oct 4;20(10):e49177. doi: 10.15252/embr.201949177. Epub 2019 Sep 18. PMID: 31531926; PMCID: PMC6776890
- Microsoft Invests $10 Billion in ChatGPT Maker OpenAI
- Entrevista con Gary Markus, Manuel Ángel Méndez, El Confidencial
- Siqi Chen en Twitter
- La historia de OpenAI: lo que ChatGPT no te cuenta sobre su empresa matriz
- Ponemos un examen de grado universitario a ChatGPT y no aprueba (pero por poco)
- Por qué no puedes fiarte de ChatGPT, la inteligencia artificial conversacional más avanzada