La inteligencia artificial general, o AGI, es uno de los hitos más citados en la industria de la IA. Los ejecutivos tecnológicos la predicen, los inversores invierten miles de millones en financiar su investigación, y los críticos advierten sobre sus riesgos una vez que llegue. Pero lo que exactamente es la AGI sigue sin estar claro, y los investigadores aún no se ponen de acuerdo sobre qué cuenta como “inteligencia general”, cuándo podría llegar y cómo la reconocerían una vez que lo haga. “Hay muchas definiciones diferentes,” dijo Malo Bourgon, CEO del Instituto de Investigación en Inteligencia de Máquinas, a Decrypt. “Cuando empezamos a hablar de, ¿es este sistema AGI? ¿Es ese sistema AGI? ¿Qué exactamente califica como AGI según qué definición? Creo que eso es bastante difícil de hacer.”
Figuras prominentes, incluyendo al CEO de OpenAI, Sam Altman, al CEO de Anthropic, Dario Amodei, y al CEO de xAI, Elon Musk, han opinado y hecho predicciones sobre la aparición de la AGI. “Creo que alcanzaremos la AGI en 2026,” dijo Musk en diciembre durante una entrevista con el presidente ejecutivo de la Fundación XPRIZE, Peter Diamandis. “Estoy seguro de que para 2030, la IA superará la inteligencia de todos los humanos combinados.” A diferencia de la IA generativa con la que la mayoría está familiarizada gracias a ChatGPT, la inteligencia artificial general, o AGI, generalmente se refiere a un sistema de IA que puede entender, aprender y aplicar conocimientos en muchas tareas diferentes a nivel humano, en lugar de realizar una función especializada única. El concepto data de los primeros días de la investigación en IA en los años 50.
A partir de principios de los 2000, investigadores como Ben Goertzel, Shane Legg y Peter Voss popularizaron el término “inteligencia artificial general” para distinguir el objetivo original de una IA de nivel humano, ampliamente capaz, de los sistemas de IA cada vez más exitosos pero estrechos que se desarrollan en laboratorios y universidades. Sin embargo, Bourgon dijo que lograr “inteligencia a nivel humano” no es un objetivo único para todos. “Hay muchas razones, desde nuestra historia evolutiva, cómo están estructurados nuestros cerebros, qué tan lentos son los neuronas, y los límites de nuestra memoria de trabajo y la velocidad a la que operan nuestros cerebros, que deberíamos esperar que si podemos diseñar sistemas de IA con esta propiedad que tenemos, hay un espacio enorme por encima de nosotros,” afirmó. Algunos dicen que la AGI ya está aquí Los avances recientes en modelos de lenguaje grandes y en IA poderosa como Gemini, ChatGPT, Grok y Claude, que pueden escribir ensayos, crear imágenes, generar código y responder preguntas complejas, han llevado a muchos a argumentar que la AGI ya ha sido lograda. Pero lo que les falta, dijo Bourgon, es autonomía. “En la mayoría de las definiciones de AGI está la idea de autonomía,” dijo Bourgon. “Que estas cosas no sean solo herramientas y chatbots, sino que tengan una naturaleza agentica que les permita realizar tareas en una amplia variedad de entornos con un alto grado de autonomía.” Ben Goertzel, CEO de SingularityNET y una de las figuras que popularizaron el término AGI, dijo que esa interpretación extiende el concepto. “El término se ha vuelto bastante confuso ahora en los medios,” dijo Goertzel a Decrypt. “Los CEOs tecnológicos encuentran conveniente decir, ‘Hey, ya lanzamos la AGI,’ y la gente sensationaliza las cosas.” En teoría, explicó Goertzel, la AGI se refiere a sistemas de IA capaces de aprender y realizar una amplia gama de tareas más allá de las que fueron explícitamente entrenados para hacer. Los modelos actuales, afirmó, son poderosos pero fundamentalmente diferentes de la inteligencia general.
“No llegan a ella solo aprendiendo a hacer todo,” dijo. “Llegan a ella teniendo toda la internet en su base de conocimientos.” Mientras los desarrolladores de IA invierten miles de millones en construir centros de datos de IA para suministrar cada vez más capacidad de cálculo a modelos cada vez más poderosos, una verdadera inteligencia general necesitaría generalizar y generar ideas genuinamente novedosas que vayan más allá de simplemente remixar sus datos de entrenamiento, explicó. “Si tomas los sistemas actuales de redes neuronales profundas y los entrenas con música hasta el año 1900, nunca inventarán el hip hop o el grindcore,” dijo Goertzel. Goertzel argumentó que el cambio hacia la AGI probablemente no aparecerá como un punto de inflexión único y claro. “No tiene que haber un límite completamente nítido entre la AGI y la pre-AGI,” dijo, comparándolo con las áreas grises en biología alrededor de virus y retrovirus. Todavía sabemos que un perro está vivo y una roca no, añadió, incluso si algunos casos límite son “borrosos,” como en el caso de los virus. Kyle Chan, investigador en Brookings que estudia la política global de IA, dijo que el debate se ha ampliado para cubrir varios escenarios diferentes. Desarrollo en el extranjero “Hay toda una gama de lo que entendemos por AGI,” dijo Chan a Decrypt. “En un extremo, está la idea de la mejora recursiva y una explosión de inteligencia, y en el otro, una versión más ‘mundana’—IA que puede hacer muchas cosas que los humanos pueden hacer, o IA como una tecnología normal como internet o las computadoras.” Mientras los laboratorios de IA en EE. UU. debaten las implicaciones existenciales de la AGI, Chan dijo que en China la conversación es muy diferente.
“La AGI no es algo tan importante en China, especialmente para los responsables políticos, la comunidad de IA en general, y la industria tecnológica,” afirmó. “La mayoría de la gente está enfocada en tratar de ganar dinero con esto, y especialmente en el lado físico, que es un área donde creo que China y muchas de sus empresas tecnológicas sienten que tienen ventaja sobre EE. UU., donde pueden construir robótica o sistemas autónomos, drones, lo que sea impulsado por IA, porque tienen las cadenas de suministro de hardware que EE. UU. no tiene.” Chan reconoció que, aunque los desarrolladores de IA en China no están tan enfocados en la AGI como sus contrapartes estadounidenses, todavía la tienen en su radar. “Algunos fundadores de IA en China hablan de AGI, y algunos incluso hablan de una especie de ASI,” dijo. “Pero en general, la AGI no es algo tan importante en China.” Las predicciones sobre cuándo podría llegar la AGI varían mucho. Para los investigadores que estudian la tecnología, la etiqueta en sí puede importar menos que lo que los sistemas pueden hacer. “¿Cuáles son los efectos y las capacidades de estos sistemas?” dijo Bourgon. “Eso es más la mentalidad en la que deberíamos estar ahora.”