La Inteligencia Artificial General (IAG) -un sistema con una inteligencia comparable o superior a la humana en todos los ámbitos- sigue considerándose el Santo Grial de la tecnología. Sin embargo, en 2025 se perfila con mayor claridad un camino alternativo: no estamos alcanzando la AGI como un sistema unificado, sino mediante una ilusión cada vez más convincente creada por la combinación de múltiples IA estrechas especializadas.
El mosaico de la inteligencia artificial
La IA actual destaca en tareas específicas: los grandes modelos lingüísticos (LLM) manejan textos, modelos como Midjourney o DALL-E crean imágenes, AlphaFold analiza proteínas. Aunque individualmente limitadas, cuando se integran en un ecosistema coordinado, estas estrechas IA crean una apariencia de inteligencia general, un "proxy" de AGI.
Según el informe AI Index 2025 de la Universidad de Stanford, a pesar de los importantes avances, la IA sigue encontrando obstáculos en el área del razonamiento complejo.
Los modelos más avanzados resuelven problemas muy estructurados, pero muestran marcadas limitaciones cuando se trata de razonamiento lógico articulado, planificación secuencial y pensamiento abstracto.
El enfoque de la sociedad de las mentes y los sistemas multiagente
En 2025, la inteligencia artificial está pasando rápidamente de ser una tecnología de nicho a un elemento estratégico del panorama tecnológico y social, con profundas implicaciones culturales y éticas.
Esto ha propiciado la aparición de sistemas de IA agente que nos acercan al horizonte de la inteligencia artificial general.
En los sistemas multiagente, cada agente opera de forma independiente, utilizando datos locales y procesos autónomos de toma de decisiones sin depender de un controlador central.
Cada agente tiene una visión local, pero ninguno tiene una visión global de todo el sistema. Esta descentralización permite a los agentes realizar tareas individualmente y contribuir a los objetivos generales mediante la interacción.
En 2025, los sistemas multiagente -en los que varios agentes de IA colaboran para alcanzar objetivos complejos- son cada vez más populares. Estos sistemas pueden optimizar los flujos de trabajo, generar ideas y ayudar en los procesos de toma de decisiones en diversos campos.
Por ejemplo, en atención al cliente, los agentes de IA gestionan solicitudes complejas; en producción, supervisan las líneas de producción en tiempo real; en logística, coordinan las cadenas de suministro de forma dinámica.
La meseta computacional y las barreras físicas
A pesar de los impresionantes avances, estamos empezando a alcanzar una meseta en el desarrollo computacional tradicional. De 1959 a 2012, la cantidad de energía necesaria para entrenar modelos de IA se duplicó cada dos años, siguiendo la Ley de Moore. Sin embargo, los datos más recientes muestran que después de 2012, el tiempo de duplicación se ha vuelto significativamente más rápido -cada 3,4 meses-, lo que hace que el ritmo actual sea más de siete veces superior al anterior.
Este espectacular aumento de la potencia de cálculo necesaria subraya lo difícil que resulta desde el punto de vista económico lograr avances significativos en el campo de la IA.
La promesa de la computación cuántica
La computación cuántica podría superar este obstáculo, ofreciendo un cambio de paradigma en la capacidad computacional necesaria para modelos aún más sofisticados. En 2025, la computación cuántica se perfila como una herramienta crucial para hacer frente a estos retos, a medida que las empresas tecnológicas adoptan fuentes de energía alternativas para seguir el ritmo del creciente consumo energético de la IA.
Según una previsión de Arvind Krishna, CEO de IBM, gracias a los rápidos avances en computación cuántica, el consumo de energía y agua de la IA podría reducirse hasta en un 99% en los próximos cinco años.
Esta tecnología promete desbloquear capacidades informáticas hasta ahora inimaginables y abrir nuevas fronteras en la investigación científica.
En marzo de 2025, D-Wave Quantum anunció un importante avance al publicar un artículo titulado "Beyond-Classical Computation in Quantum Simulation" (Computación más allá de la clásica en la simulación cuántica), en el que demostraba que su ordenador cuántico de recocido había superado a uno de los superordenadores clásicos más potentes del mundo a la hora de resolver problemas complejos de simulación de materiales magnéticos.
En el año 2025 se produjeron avances transformadores en la computación cuántica, con importantes avances en hardware, corrección de errores, integración con la IA y redes cuánticas. Estos avances están redefiniendo el posible de la computación cuántica en ámbitos como la sanidad, las finanzas y la logística..
Sin embargo, según Forrester, la informática cuántica sigue siendo experimental a pesar de los avances de 2025 y aún no ha demostrado una ventaja práctica sobre los ordenadores clásicos para la mayoría de las aplicaciones.
La carrera cuántica: ¿Microsoft contra Google?
Microsoft afirma haber logrado avances significativos en computación cuántica con su chip Majorana 1, presentado a principios de 2025. Este procesador incorpora una nueva arquitectura Topological Core, construida con ocho qubits topológicos que manipulan partículas Majorana, cuasipartículas que actúan como "semielectrones" conocidas por su gran resistencia a los errores.
Google, por su parte, ha desarrollado un enfoque diferente con su revolucionario chip cuántico llamado Willow, que resuelve el problema tradicional del aumento de la tasa de error a medida que aumentan los qubits: Willow se vuelve más preciso a medida que se añaden más qubits.
Estas dos estrategias diferentes representan enfoques fundamentalmente distintos de la computación cuántica, ya que Microsoft se centra en la topología y Google en la optimización de errores.
Barreras cognitivas que persisten
Además de las limitaciones de hardware, la IA compuesta se enfrenta a otras barreras fundamentales:
Comprensión causal: los sistemas correlacionan variables pero no aíslan las verdaderas relaciones causa-efecto. La IA ha hecho progresos significativos en muchos campos, pero sigue enfrentándose a limitaciones en la comprensión y respuesta a las emociones humanas, en la toma de decisiones en situaciones de crisis y en la evaluación de consideraciones éticas y morales.
Aprendizaje continuo: las redes neuronales pierden precisión cuando se entrenan secuencialmente en tareas diferentes, mostrando una especie de "amnesia catastrófica".
Metacognición: las IA carecen de un modelo interno de su propia cognición, lo que limita la verdadera superación personal.

Hacia una AGI "por delegación
La comunidad científica parece bastante dividida sobre las tecnologías y los plazos necesarios para alcanzar el objetivo de la Inteligencia Artificial General (IAG), pero el debate está dando lugar a nuevas e interesantes sugerencias, que ya están encontrando aplicación práctica en la investigación de nuevos sistemas de IA.
2025 podría ser el año en que los primeros sistemas de agentes entren en producción en las empresas.
Mientras que la AGI representa el objetivo más ambicioso: sistemas con capacidades cognitivas comparables o superiores a las humanas, capaces de comprender, aprender y aplicar conocimientos de forma transversal.
En lugar de esperar a una AGI monolítica, lo más probable es que en el futuro surjan lo que podríamos denominar "AGIs frontales", sistemas que parecen poseer inteligencia general mediante:
- Orquestación de microservicios de IA: varias IA especializadas coordinadas a través de un nivel de abstracción común.
- Interfaces conversacionales unificadas: Una única interfaz que oculta la complejidad de múltiples sistemas subyacentes.
- Aprendizaje transversal limitado: intercambio selectivo de conocimientos entre ámbitos específicos.
Conciencia: ¿realidad o ilusión compartida?
En el debate sobre la AGI, tendemos a dar por sentado que los seres humanos están dotados de una "conciencia" que las máquinas no pueden replicar. Pero quizá deberíamos hacernos una pregunta más radical: ¿es real la propia conciencia humana o es también una ilusión?
Algunos neurocientíficos y filósofos de la mente, como Daniel Dennett, han propuesto que lo que llamamos "conciencia" podría ser en sí mismo una narrativa post-hoc, una interpretación que el cerebro construye para dar sentido a sus operaciones. una interpretación que el cerebro construye para dar sentido a sus operaciones..
Si consideramos la conciencia no como una propiedad misteriosa y unitaria, sino como un conjunto de procesos neuronales interconectados que generan una ilusión convincente de un "yo" unificado, entonces la frontera entre humanos y máquinas resulta menos clara.
Desde este punto de vista, podríamos considerar las diferencias entre la IAG emergente y la inteligencia humana como diferencias de grado más que de naturaleza. La ilusión de comprensión que vemos en los modelos avanzados de lenguaje puede no ser tan diferente de la ilusión de comprensión que experimentamos nosotros mismos: ambas surgen de redes complejas de procesos, aunque organizadas de formas fundamentalmente diferentes.
Esta perspectiva plantea una pregunta provocadora: si la conciencia humana es en sí misma una simulación que emerge de múltiples procesos cognitivos interconectados, entonces la AGI "indirecta" que estamos construyendo -un mosaico de sistemas especializados que trabajan juntos para simular una comprensión general- podría ser sorprendentemente similar a nuestra propia arquitectura mental.
No estaríamos intentando replicar una cualidad mágica e inefable, sino reconstruir la ilusión convincente que nosotros mismos experimentamos como conciencia.
Esta reflexión no disminuye la profundidad de la experiencia humana, pero nos invita a reconsiderar a qué nos referimos realmente cuando hablamos de "conciencia" y si este concepto es realmente un obstáculo insalvable para la inteligencia artificial, o simplemente otro proceso que algún día podríamos ser capaces de simular.

Conclusión: replantearse la línea de meta
Quizá deberíamos reconsiderar radicalmente nuestra definición de AGI. Si la propia conciencia humana pudiera ser una ilusión emergente -una narrativa que el cerebro construye para dar sentido a sus propias operaciones-, entonces la tajante distinción entre inteligencia humana e inteligencia artificial pierde definición.
Los expertos predicen que 2027 podría marcar un momento crucial para la IA. Al ritmo actual, los modelos podrían alcanzar la generalidad cognitiva -la capacidad de abordar cualquier tarea humana- en unos pocos años.
Este escenario no debe verse simplemente como una réplica de la inteligencia humana, sino como la aparición de un nuevo tipo de inteligencia, ni totalmente humana ni totalmente artificial, sino algo diferente y potencialmente complementario.
Este planteamiento nos libera de intentar replicar algo que quizá no comprendamos del todo -la conciencia humana- y nos permite, en cambio, centrarnos en lo que la inteligencia artificial puede hacer en sus propios términos. Por tanto, la inteligencia artificial que surja no será un sistema único que "pretenda" ser humano, sino un ecosistema tecnológico integrado con sus propias características emergentes, una inteligencia distribuida que, paradójicamente, puede reflejar la naturaleza fragmentada e interconectada de nuestra propia cognición más de lo que pensamos en un principio.
En este sentido, la investigación de la AGI se convierte no tanto en un intento de emular al ser humano como en un viaje de descubrimiento de la propia naturaleza de la inteligencia y la conciencia, tanto humana como artificial.
Fuentes
- https://www.justthink.ai/artificial-general-intelligence/understanding-agi-vs-narrow-ai-explaining-the-differences-and-implications
- https://www.rand.org/pubs/commentary/2024/02/why-artificial-general-intelligence-lies-beyond-deep.html
- https://futurism.com/glimmers-agi-illusion
- https://ai.stackexchange.com/questions/26007/are-there-any-approaches-to-agi-that-will-definitely-not-work
- https://qubic.org/blog-detail/the-path-to-agi-overcoming-the-computational-challenge
- https://www.linkedin.com/pulse/amplification-intelligence-recursive-self-improvement-gary-ramah-0wjpc
- https://www.investopedia.com/artificial-general-intelligence-7563858