Newsletter

La ilusión del progreso: simular la inteligencia artificial general sin conseguirla

No estamos construyendo AGI, sino una ilusión cada vez más convincente. En 2025, la inteligencia general no surgirá de un único sistema, sino de un mosaico de IA especializadas coordinadas: LLM, generadores de imágenes, AlphaFold. La computación cuántica promete superar la meseta computacional (-99% de consumo según IBM), mientras Microsoft y Google compiten con enfoques radicalmente distintos. ¿La provocación? Si la conciencia humana es en sí misma una ilusión emergente, quizá la AGI "por poder" se nos parezca más de lo que pensamos.

La Inteligencia Artificial General(IAG ) -un sistema con una inteligencia comparable o superior a la humana en todos los dominios- sigue considerándose el Santo Grial de la tecnología. Sin embargo, en 2025 se perfila con mayor claridad una vía alternativa: no estamos alcanzando la AGI como un sistema unificado, sino a través de unailusión cada vez más convincente creada por la combinación de múltiples IA estrechas especializadas.

El mosaico de la inteligencia artificial

La IA actual destaca en tareas específicas: los grandes modelos lingüísticos (LLM) manejan textos, modelos como Midjourney o DALL-E crean imágenes, AlphaFold analiza proteínas. Aunque individualmente limitadas, cuando se integran en un ecosistema coordinado, estas estrechas IA crean una apariencia de inteligencia general, un "proxy" de AGI.

Según el informe AI Index 2025 de la Universidad de Stanford, a pesar de los importantes avances, la IA sigue encontrando obstáculos en el área del razonamiento complejo.

Los modelos más avanzados resuelven problemas muy estructurados, pero muestran marcadas limitaciones cuando se trata de razonamiento lógico articulado, planificación secuencial y pensamiento abstracto.

El enfoque de la sociedad de las mentes y los sistemas multiagente

En 2025, la inteligencia artificial está pasando rápidamente de ser una tecnología de nicho a un elemento estratégico del panorama tecnológico y social, con profundas implicaciones culturales y éticas.

Esto ha propiciado la aparición de sistemas de IA agente que nos acercan al horizonte de la inteligencia artificial general.

En los sistemas multiagente, cada agente opera de forma independiente, utilizando datos locales y procesos autónomos de toma de decisiones sin depender de un controlador central.

Cada agente tiene una visión local, pero ninguno tiene una visión global de todo el sistema. Esta descentralización permite a los agentes realizar tareas individualmente y contribuir a los objetivos generales mediante la interacción.

En 2025, los sistemas multiagente -en los que varios agentes de IA colaboran para alcanzar objetivos complejos- son cada vez más populares. Estos sistemas pueden optimizar los flujos de trabajo, generar ideas y ayudar en los procesos de toma de decisiones en diversos campos.

Por ejemplo, en atención al cliente, los agentes de IA gestionan solicitudes complejas; en producción, supervisan las líneas de producción en tiempo real; en logística, coordinan las cadenas de suministro de forma dinámica.

La meseta computacional y las barreras físicas

A pesar de los impresionantes avances, estamos empezando a alcanzar una meseta en el desarrollo computacional tradicional. De 1959 a 2012, la cantidad de energía necesaria para entrenar modelos de IA se duplicó cada dos años, siguiendo la Ley de Moore. Sin embargo, los datos más recientes muestran que después de 2012, el tiempo de duplicación se ha vuelto significativamente más rápido -cada 3,4 meses-, lo que hace que el ritmo actual sea más de siete veces superior al anterior.

Este espectacular aumento de la potencia de cálculo necesaria subraya lo difícil que resulta desde el punto de vista económico lograr avances significativos en el campo de la IA.

La promesa de la computación cuántica

La computación cuántica podría superar este obstáculo, ofreciendo un cambio de paradigma en la capacidad de cálculo necesaria para modelos aún más sofisticados. En 2025, la computación cuántica se perfila como una herramienta crucial para afrontar estos retos, a medida que las empresas tecnológicas adoptan fuentes de energía alternativas para seguir el ritmo del creciente consumo energético de la IA.

Según una previsión de Arvind Krishna, CEO de IBM, gracias a los rápidos avances en computación cuántica, el consumo de energía y agua de la IA podría reducirse hasta en un 99% en los próximos cinco años.

Esta tecnología promete desbloquear capacidades informáticas hasta ahora inimaginables y abrir nuevas fronteras en la investigación científica.

En marzo de 2025, D-Wave Quantum anunció un importante avance al publicar un artículo titulado "Beyond-Classical Computation in Quantum Simulation" (Computación más allá de la clásica en la simulación cuántica), en el que demostraba que su ordenador cuántico de recocido había superado a uno de los superordenadores clásicos más potentes del mundo a la hora de resolver problemas complejos de simulación de materiales magnéticos.

En el año 2025 se produjeron avances transformadores en la computación cuántica, con importantes avances en hardware, corrección de errores, integración con la IA y redes cuánticas. Estos avances están redefiniendo el posible de la computación cuántica en ámbitos como la sanidad, las finanzas y la logística..

Sin embargo, según Forrester, la informática cuántica sigue siendo experimental a pesar de los avances de 2025 y aún no ha demostrado una ventaja práctica sobre los ordenadores clásicos para la mayoría de las aplicaciones.

La carrera cuántica: ¿Microsoft contra Google?

Microsoft afirma haber logrado avances significativos en computación cuántica con su chip Majorana 1, presentado a principios de 2025. Este procesador incorpora una nueva arquitectura Topological Core, construida con ocho qubits topológicos que manipulan partículas Majorana, cuasipartículas que actúan como "semielectrones" conocidas por su gran resistencia a los errores.

Google, por su parte, ha desarrollado un enfoque diferente con su revolucionario chip cuántico llamado Willow, que resuelve el problema tradicional del aumento de la tasa de error a medida que aumentan los qubits: Willow se vuelve más preciso a medida que se añaden más qubits.

Estas dos estrategias diferentes representan enfoques fundamentalmente distintos de la computación cuántica, ya que Microsoft se centra en la topología y Google en la optimización de errores.

Barreras cognitivas que persisten

Además de las limitaciones de hardware, la IA compuesta se enfrenta a otras barreras fundamentales:

Comprensión causal: los sistemas correlacionan variables pero no aíslan las verdaderas relaciones causa-efecto. La IA ha hecho progresos significativos en muchos campos, pero sigue enfrentándose a limitaciones en la comprensión y respuesta a las emociones humanas, en la toma de decisiones en situaciones de crisis y en la evaluación de consideraciones éticas y morales.

Aprendizaje continuo: las redes neuronales pierden precisión cuando se entrenan secuencialmente en tareas diferentes, mostrando una especie de "amnesia catastrófica".

Metacognición: las IA carecen de un modelo interno de su propia cognición, lo que limita la verdadera superación personal.

Cognición y emoción: la IA destaca en razonamiento computacional pero sigue encontrando profundas limitaciones en comprensión emocional y consideraciones éticas. La frontera entre la inteligencia artificial y la humana puede estar precisamente en este equilibrio entre lógica y emoción.

Hacia una AGI "por delegación

La comunidad científica parece bastante dividida sobre las tecnologías y los plazos necesarios para alcanzar el objetivo de la Inteligencia Artificial General (IAG), pero el debate está dando lugar a nuevas e interesantes sugerencias, que ya están encontrando aplicación práctica en la investigación de nuevos sistemas de IA.

2025 podría ser el año en que los primeros sistemas de agentes entren en producción en las empresas.

Mientras que la AGI representa el objetivo más ambicioso: sistemas con capacidades cognitivas comparables o superiores a las humanas, capaces de comprender, aprender y aplicar conocimientos de forma transversal.

En lugar de esperar a una AGI monolítica, lo más probable es que en el futuro surjan lo que podríamos denominar "AGIs frontales", sistemas que parecen poseer inteligencia general mediante:

  1. Orquestación de microservicios de IA: varias IA especializadas coordinadas a través de un nivel de abstracción común.
  2. Interfaces conversacionales unificadas: Una única interfaz que oculta la complejidad de múltiples sistemas subyacentes.
  3. Aprendizaje transversal limitado: intercambio selectivo de conocimientos entre ámbitos específicos.

Conciencia: ¿realidad o ilusión compartida?

En el debate sobre la AGI, tendemos a dar por sentado que los seres humanos están dotados de una "conciencia" que las máquinas no pueden replicar. Pero quizá deberíamos hacernos una pregunta más radical: ¿es real la propia conciencia humana o es también una ilusión?

Algunos neurocientíficos y filósofos de la mente, como Daniel Dennett, han propuesto que lo que llamamos "conciencia" podría ser en sí mismo una narrativa post-hoc, una interpretación que el cerebro construye para dar sentido a sus operaciones. una interpretación que el cerebro construye para dar sentido a sus operaciones..

Si consideramos la conciencia no como una propiedad misteriosa y unitaria, sino como un conjunto de procesos neuronales interconectados que generan una ilusión convincente de un "yo" unificado, entonces la frontera entre humanos y máquinas resulta menos clara.

Desde esta perspectiva, podríamos considerar que las diferencias entre la IAG emergente y la inteligencia humana son más de grado que de naturaleza. La ilusión de comprensión que vemos en los modelos avanzados de lenguaje puede no ser tan diferente de la ilusión de comprensión que experimentamos nosotros mismos: ambas surgen de redes complejas de procesos, aunque organizadas de formas fundamentalmente diferentes.

Esta perspectiva plantea una pregunta provocadora: si la conciencia humana es en sí misma una simulación que emerge de múltiples procesos cognitivos interconectados, entonces la AGI "indirecta" que estamos construyendo -un mosaico de sistemas especializados que trabajan juntos para simular una comprensión general- podría ser sorprendentemente similar a nuestra propia arquitectura mental.

No estaríamos intentando replicar una cualidad mágica e inefable, sino reconstruir la ilusión convincente que nosotros mismos experimentamos como conciencia.

Esta reflexión no disminuye la profundidad de la experiencia humana, pero nos invita a reconsiderar a qué nos referimos realmente cuando hablamos de "conciencia" y si este concepto es realmente un obstáculo insalvable para la inteligencia artificial, o simplemente otro proceso que algún día podríamos ser capaces de simular.

Múltiples caminos hacia la IAG: ¿sistemas multiagente, computación cuántica u orquestación de IA especializada? La verdadera inteligencia general podría surgir de la combinación de todas estas vías.

Conclusión: replantearse la línea de meta

Quizá deberíamos reconsiderar radicalmente nuestra definición de AGI. Si la propia conciencia humana pudiera ser una ilusión emergente -una narrativa que el cerebro construye para dar sentido a sus propias operaciones-, entonces la tajante distinción entre inteligencia humana e inteligencia artificial pierde definición.

Los expertos predicen que 2027 podría marcar un momento crucial para la IA. Al ritmo actual, los modelos podrían alcanzar la generalidad cognitiva -la capacidad de abordar cualquier tarea humana- en unos pocos años.

Este escenario no debe verse simplemente como una réplica de la inteligencia humana, sino como la aparición de un nuevo tipo de inteligencia, ni totalmente humana ni totalmente artificial, sino algo diferente y potencialmente complementario.

Este planteamiento nos libera de intentar replicar algo que quizá no comprendamos del todo -la conciencia humana- y nos permite, en cambio, centrarnos en lo que la inteligencia artificial puede hacer en sus propios términos. Por tanto, la inteligencia artificial que surja no será un sistema único que "pretenda" ser humano, sino un ecosistema tecnológico integrado con sus propias características emergentes, una inteligencia distribuida que, paradójicamente, puede reflejar la naturaleza fragmentada e interconectada de nuestra propia cognición más de lo que pensamos en un principio.

En este sentido, la investigación de la AGI se convierte no tanto en un intento de emular al ser humano como en un viaje de descubrimiento de la propia naturaleza de la inteligencia y la conciencia, tanto humana como artificial.

Fuentes

  1. https://www.justthink.ai/artificial-general-intelligence/understanding-agi-vs-narrow-ai-explaining-the-differences-and-implications
  2. https://www.rand.org/pubs/commentary/2024/02/why-artificial-general-intelligence-lies-beyond-deep.html
  3. https://futurism.com/glimmers-agi-illusion
  4. https://ai.stackexchange.com/questions/26007/are-there-any-approaches-to-agi-that-will-definitely-not-work
  5. https://qubic.org/blog-detail/the-path-to-agi-overcoming-the-computational-challenge
  6. https://www.linkedin.com/pulse/amplification-intelligence-recursive-self-improvement-gary-ramah-0wjpc
  7. https://www.investopedia.com/artificial-general-intelligence-7563858

Recursos para el crecimiento empresarial

9 de noviembre de 2025

Regulación de la IA para aplicaciones de consumo: cómo prepararse para la nueva normativa de 2025

2025 marca el final de la era del "Salvaje Oeste" de la IA: AI Act EU operativa a partir de agosto de 2024 con obligaciones de alfabetización en IA a partir del 2 de febrero de 2025, gobernanza y GPAI a partir del 2 de agosto. California es pionera con el SB 243 (nacido tras el suicidio de Sewell Setzer, una niña de 14 años que entabló una relación emocional con un chatbot), que impone la prohibición de sistemas de recompensa compulsiva, detección de ideación suicida, recordatorio cada 3 horas de "no soy humano", auditorías públicas independientes, sanciones de 1.000 dólares por infracción. SB 420 exige evaluaciones de impacto para "decisiones automatizadas de alto riesgo" con derechos de apelación de revisión humana. Cumplimiento real: Noom citada en 2022 por bots que se hacían pasar por entrenadores humanos, acuerdo de 56 millones de dólares. Tendencia nacional: Alabama, Hawai, Illinois, Maine, Massachusetts clasifican la falta de notificación de los chatbots de IA como infracción de la UDAP. Enfoque de tres niveles de sistemas de riesgo crítico (sanidad/transporte/energía) certificación previa al despliegue, divulgación transparente de cara al consumidor, registro de uso general+pruebas de seguridad. Mosaico normativo sin prioridad federal: las empresas de varios estados deben navegar por requisitos variables. UE a partir de agosto de 2026: informar a los usuarios de la interacción con la IA a menos que sea obvio, etiquetar el contenido generado por la IA como legible por máquina.
9 de noviembre de 2025

Regular lo que no se crea: ¿corre Europa el riesgo de la irrelevancia tecnológica?

Europa atrae sólo una décima parte de la inversión mundial en inteligencia artificial, pero pretende dictar las normas mundiales. Este es el "efecto Bruselas": imponer normas a escala planetaria mediante el poder de mercado sin impulsar la innovación. La Ley de Inteligencia Artificial entra en vigor de forma escalonada hasta 2027, pero las multinacionales tecnológicas responden con creativas estrategias de evasión: invocando secretos comerciales para evitar revelar datos de entrenamiento, elaborando resúmenes técnicamente conformes pero incomprensibles, utilizando la autoevaluación para rebajar los sistemas de "alto riesgo" a "riesgo mínimo", forum shopping eligiendo Estados miembros con controles menos estrictos. La paradoja de los derechos de autor extraterritoriales: la UE exige que OpenAI cumpla las leyes europeas incluso para la formación fuera de Europa, un principio nunca visto en el derecho internacional. Surge el "modelo dual": versiones europeas limitadas frente a versiones globales avanzadas de los mismos productos de IA. Riesgo real: Europa se convierte en una "fortaleza digital" aislada de la innovación global, con los ciudadanos europeos accediendo a tecnologías inferiores. El Tribunal de Justicia en el caso de la puntuación crediticia ya ha rechazado la defensa de los "secretos comerciales", pero la incertidumbre interpretativa sigue siendo enorme: ¿qué significa exactamente "resumen suficientemente detallado"? Nadie lo sabe. Última pregunta sin respuesta: ¿está la UE creando una tercera vía ética entre el capitalismo estadounidense y el control estatal chino, o simplemente exportando burocracia a un ámbito en el que no compite? Por ahora: líder mundial en regulación de la IA, marginal en su desarrollo. Amplio programa.