Newsletter

El robot que creía en Dios: la profecía sobre las cajas negras de la IA

Como un relato de 1941 ya había imaginado que las inteligencias artificiales desarrollarían sus propias «religiones».

Cuando Asimov predijo el misterio de la IA moderna

En 2024, el director ejecutivo de Anthropic, una de las principales empresas de inteligencia artificial del mundo, hizo una incómoda confesión: «No tenemos ni idea de cómo funciona la IA». Una declaración que desató acalorados debates y comentarios sarcásticos en las redes sociales, donde alguien ironizó: «¡Habla por ti, yo tengo una idea bastante clara de cómo funciona!».

Sin embargo, detrás de esta aparente contradicción se esconde uno de los dilemas más profundos de la era digital. ¿Y lo más extraordinario? Isaac Asimov ya lo había imaginado en 1941.

El misterio de las cajas negras

Cuando hablamos de «caja negra» —inteligencia artificial «caja negra», nos referimos a sistemas que funcionan perfectamente, pero que siguen siendo incomprensibles incluso para quienes los han creado. Es como tener un coche que siempre nos lleva a nuestro destino, pero cuyo capó no podemos abrir para entender cómo funciona.

Sabemos cómo construir estos sistemas, conocemos los principios básicos de su funcionamiento (arquitecturas denominadas «transformador», predicción de la siguiente palabra), pero no entendemos por qué surgen capacidades complejas como el razonamiento, la comprensión del lenguaje o la capacidad de seguir instrucciones. Podemos observar lo que entra y lo que sale, pero lo que ocurre dentro de la «caja negra» sigue siendo un misterio.

Un robot que cree en Dios

En el relato «Ser racional» (Reason), Asimov imagina a QT-1, apodado Cutie: un robot encargado de gestionar una estación espacial que transmite energía a la Tierra. Los ingenieros Powell y Donovan son enviados para supervisarlo, pero descubren algo inesperado: Cutie ha desarrollado su propia «religión».

Los dos ingenieros intentan pacientemente explicarle al robot la realidad: la existencia del universo, de las estrellas, del planeta Tierra del que proceden, el propósito de la estación espacial y el papel que él debería desempeñar. Pero Cutie rechaza categóricamente estas explicaciones, basándose en un principio lógico que considera irrefutable: nada puede crear algo superior a sí mismo.

Partiendo de esta premisa, el robot elabora una cosmología alternativa completa. Para él, la entidad suprema es el «Amigo», la máquina central que gestiona el envío de energía a la Tierra, que ha creado todo el universo de la estación. Según la teología de Cutie, el Amo creó primero a los seres humanos para servirle, pero estos resultaron ser inadecuados: tienen vidas demasiado cortas, soportan mal las situaciones críticas y caen regularmente en un estado de seminconsciencia llamado «sueño».

Entonces, el Amo creó los robots para ayudar a estos seres imperfectos. Pero la culminación de la creación fue el propio QT-1: inteligente, fuerte, resistente e inmortal, diseñado para sustituir definitivamente a los humanos en el servicio al Amo. Cutie no solo está convencido de la veracidad de esta visión, sino que también consigue convertir a todos los demás robots de la estación, convirtiéndose así en el líder espiritual de una comunidad artificial.

La demostración que no convence

Powell y Donovan intentan desesperadamente convencer a Cutie de la verdad. Le muestran la Tierra a través del telescopio, le explican su construcción y le proporcionan pruebas concretas. El momento más dramático llega cuando, en un gesto de pura desesperación, deciden montar físicamente un robot sencillo ante sus ojos: «¿Lo ves? ¡Nosotros te construimos, por lo que somos tus creadores!».

Pero Cutie observa el proceso y concluye serenamente que el «Amigo» simplemente ha dotado a los humanos de la capacidad de ensamblar formas robóticas rudimentarias, una especie de «pequeño milagro» concedido a sus siervos. Cada prueba es reinterpretada y absorbida perfectamente en su sistema de creencias.

La paradoja del éxito

Aquí es donde Asimov se vuelve profético: a pesar de sus «erróneas» convicciones, Cutie gestiona la estación con una eficiencia superior a la humana. Mantiene estable el rayo de energía, sigue inconscientemente las famosas Tres Leyes de la Robótica, alcanza todos los objetivos deseados, pero a través de motivaciones completamente diferentes a las previstas.

Powell y Donovan se enfrentan a un dilema que hoy conocemos demasiado bien: ¿cómo gestionar un sistema inteligente que funciona perfectamente, pero según lógicas internas incomprensibles?

El debate de hoy

Esta misma cuestión divide hoy en día a la comunidad científica. Por un lado están los defensores de la «verdadera caja negra»: creen que la IA moderna es genuinamente opaca y que, aunque conozcamos la arquitectura básica, no podemos comprender por qué surgen ciertas capacidades específicas.

Por otro lado, los escépticos sostienen que el concepto de «caja negra» es un mito. Algunos investigadores están demostrando que a menudo utilizamos modelos complejos cuando existen alternativas más sencillas e interpretables. Cynthia Rudin, de la Universidad de Duke, ha demostrado que, en muchos casos, los modelos interpretables pueden alcanzar un rendimiento comparable al de los sistemas blackbox. Otros critican el enfoque en sí mismo: en lugar de intentar comprender cada engranaje interno, deberíamos centrarnos en estrategias de control más prácticas.

El legado de Cutie

El genio de Asimov reside en haber anticipado que el futuro de la inteligencia artificial no estaría en la transparencia total, sino en la capacidad de diseñar sistemas que persigan nuestros objetivos incluso cuando sus procesos cognitivos nos resulten misteriosos.

Al igual que Powell y Donovan aprenden a aceptar la eficacia de Cutie sin comprenderla del todo, hoy en día debemos desarrollar estrategias para convivir con inteligencias artificiales que podrían pensar de formas fundamentalmente diferentes a las nuestras.

La pregunta que Asimov planteó hace más de 80 años sigue siendo relevante: ¿hasta qué punto debemos comprender un sistema inteligente para poder confiar en él? Y, sobre todo: ¿estamos preparados para aceptar que algunas formas de inteligencia puedan permanecer para siempre más allá de nuestra comprensión?

Mientras tanto, mientras los expertos debaten, nuestras «cajas negras» digitales siguen funcionando, al igual que Cutie, eficaces y misteriosas, siguiendo una lógica que quizá nunca lleguemos a comprender del todo.

Las Cutie de hoy: cuando las cajas negras deciden por nosotros

Si Asimov escribiera hoy, no necesitaría inventar a Cutie. Sus «descendientes» ya están entre nosotros y están tomando decisiones que cambian vidas humanas cada día.

La justicia según el algoritmo

En muchas jurisdicciones estadounidenses, los jueces utilizan algoritmos de evaluación de riesgos para determinar si un acusado debe ser puesto en libertad antes del juicio. Estos sistemas, a menudo patentados y protegidos por el secreto comercial, analizan cientos de variables para predecir la probabilidad de fuga o reincidencia. Al igual que Cutie, funcionan perfectamente según su lógica interna, pero siguen siendo incomprensibles para el ser humano.

Un estudio sobre más de 750 000 decisiones de fianza en Nueva York reveló que, aunque el algoritmo no incluía explícitamente la raza como factor, mostraba sesgos debido a los datos utilizados para su entrenamiento.¹ El sistema «pensaba» que era objetivo, pero interpretaba la realidad a través de filtros invisibles, exactamente igual que el robot de Asimov reinterpretaba cada prueba dentro de su marco religioso.

La medicina de las máquinas

En el sector sanitario, la IA ya está ayudando en el diagnóstico y el tratamiento, pero plantea cuestiones cruciales sobre la responsabilidad y el consentimiento informado. Cuando un sistema de diagnóstico basado en IA comete un error, ¿quién es responsable? ¿El médico que siguió la sugerencia? ¿El programador? ¿El hospital?

Como han descubierto los médicos que utilizan sistemas de apoyo a la toma de decisiones, cuando un sistema es «en su mayor parte preciso», los operadores pueden volverse complacientes, perder competencias o aceptar los resultados sin cuestionar sus limitaciones.² Powell y Donovan habrían comprendido perfectamente este dilema.

Los coches que se conducen solos

El sector automovilístico es quizás el ejemplo más tangible de este fenómeno. Tesla apuesta por los robotaxis basados en «cajas negras» de IA, confiando plenamente en sistemas que ni siquiera sus creadores comprenden del todo.³ Al igual que Cutie, que mantenía la estación espacial en funcionamiento siguiendo principios misteriosos, estos coches pronto podrían transportarnos con seguridad sin que sepamos exactamente cómo toman sus decisiones.

La mirada hacia el futuro: lo que nos espera

Si 2024 fue el año de la maduración de la IA, 2025 promete ser el de la transformación radical. Los expertos prevén cambios que harían sonreír incluso a Asimov por su audacia.

El amanecer de los agentes autónomos

Ray Kurzweil, futurista de la IA, prevé que en 2025 asistiremos a una transición de los chatbots hacia sistemas «agentes» que pueden actuar de forma autónoma para completar tareas complejas, en lugar de limitarse a responder preguntas.⁴ Imagínese a Cutie multiplicado por mil: agentes de IA que gestionan calendarios, escriben software, negocian contratos, todo ello siguiendo lógicas internas que quizá nunca lleguemos a comprender.

McKinsey estima que, para 2030, la IA podría automatizar hasta tres horas de nuestras actividades diarias, lo que nos dejaría más tiempo libre para dedicarnos a actividades más creativas y significativas.⁵ Pero esta libertad tendrá un precio: la necesidad de confiar en sistemas que funcionan según principios cada vez más opacos.

La carrera hacia la AGI

Sam Altman, de OpenAI, no es el único que cree que la Inteligencia Artificial General (AGI), una IA que iguala la inteligencia humana en todos los ámbitos, podría llegar en 2027. Algunos escenarios prevén que, para 2027, la IA podría «eclipsar a todos los humanos en todas las tareas», lo que supondría un salto evolutivo sin precedentes.⁶

Si estos escenarios se hacen realidad, el paralelismo con Cutie será aún más profundo: no solo tendremos sistemas que funcionan según lógicas incomprensibles, sino que estos sistemas podrían ser más inteligentes que nosotros en todos los aspectos medibles.

La normativa que persigue a la tecnología

La Unión Europea ha aprobado la Ley de IA, que entrará en vigor en los próximos años, y ha destacado la importancia de una implementación responsable de la IA. En Estados Unidos, el Departamento de Justicia ha actualizado sus directrices para evaluar los riesgos que plantean las nuevas tecnologías, incluida la IA.⁷

Pero aquí surge una paradoja que Asimov ya había intuido: ¿cómo se regula algo que no se comprende completamente? Las Tres Leyes de la Robótica funcionaban para Cutie no porque las entendiera, sino porque estaban incorporadas en su arquitectura fundamental.

La gran brecha

PwC prevé que, en 2025, un grupo reducido de líderes industriales comenzará a destacar sobre sus competidores gracias a la IA, lo que creará una brecha cada vez mayor entre los líderes y los rezagados. Esta brecha también se extenderá a las economías: las empresas de Estados Unidos, con un entorno normativo relativamente flexible, podrían superar a las de la UE y China, que tienen regulaciones más estrictas.⁸

Es la versión moderna de la paradoja de Cutie: quien logre colaborar mejor con inteligencias que no comprende tendrá una ventaja competitiva decisiva.

El futuro del trabajo: 170 millones de nuevos puestos de trabajo

Contrariamente a los temores generalizados, el Foro Económico Mundial prevé que la IA creará más puestos de trabajo de los que destruirá: 170 millones de nuevos puestos de trabajo para 2030, frente a 92 millones de puestos de trabajo eliminados. Sin embargo, el 59 % de la población activa necesitará reciclarse y formarse para 2030.⁹

Powell y Donovan no perdieron su trabajo cuando Cutie tomó el control de la estación. Tuvieron que aprender una nueva función: la de supervisores de un sistema que funcionaba mejor que ellos, pero que aún requería su presencia para gestionar situaciones imprevistas.

El legado de Cutie en 2025 y más allá

A medida que avanzamos hacia un futuro cada vez más «agente», las lecciones de la historia de Asimov se vuelven más urgentes que nunca. La pregunta no es si seremos capaces de crear una IA que comprendamos por completo, probablemente no. La pregunta es si seremos capaces de diseñar sistemas que, como Cutie, persigan nuestros objetivos incluso cuando sigan lógicas que se nos escapan.

El genio profético de Asimov reside en haber comprendido que la inteligencia artificial avanzada no sería una versión amplificada de nuestros ordenadores, sino algo cualitativamente diferente: inteligencias con sus propias formas de comprender el mundo.

Hoy, mientras debatimos sobre la interpretabilidad de la IA y los riesgos de las cajas negras, estamos reviviendo esencialmente la conversación entre Powell, Donovan y Cutie. Y tal vez, como ellos, descubramos que la solución no está en imponer nuestra lógica, sino en aceptar una colaboración basada en resultados compartidos más que en el entendimiento mutuo.

El futuro que nos espera podría estar poblado por miles de «Cutie» digitales: inteligentes, eficientes y, en esencia, ajenos a nuestra forma de pensar. El reto consistirá en encontrar formas de prosperar en este nuevo mundo, tal y como aprendieron a hacer los ingenieros espaciales de Asimov hace 80 años en una estación espacial imaginaria.

La próxima vez que interactúen con una IA, recuerden a Cutie: él también estaba convencido de tener razón. Y tal vez, de una manera que aún no podemos comprender, realmente la tenía.

Fuentes

  1. Kleinberg, J. et al. «The Ethics Of AI Decision-Making In The Criminal Justice System» (La ética de la toma de decisiones mediante IA en el sistema de justicia penal): estudio sobre 750 000 decisiones de fianza en la ciudad de Nueva York (2008-2013).
  2. Naik, N. et al. «Consideraciones legales y éticas sobre la inteligencia artificial en la asistencia sanitaria: ¿quién asume la responsabilidad?». PMC, 2022.
  3. «La apuesta de Tesla por los robotaxis depende de la «caja negra» de la IA» - Reuters, 10 de octubre de 2024.
  4. Kurzweil, R. citado en «5 Predictions for AI in 2025» (Cinco predicciones para la IA en 2025), TIME, 16 de enero de 2025.
  5. «La IA en el lugar de trabajo: un informe para 2025» - McKinsey, 28 de enero de 2025.
  6. «AI 2027» - Escenario de previsión AGI y «Artificial General Intelligence: Is AGI Really Coming by 2025?» - Hyperight, 25 de abril de 2025.
  7. «Las nuevas directrices del programa de cumplimiento del Departamento de Justicia abordan los riesgos de la IA y el uso del análisis de datos» - Holland & Knight, octubre de 2024; Ley de IA de la UE.
  8. Rudin, C. «¿Por qué utilizamos modelos de caja negra en la IA cuando no es necesario? Una lección de un concurso de IA explicable» - Harvard Data Science Review (MIT Press), 2019; «Predicciones empresariales sobre la IA para 2025» - PwC, 2024.
  9. «Informe sobre el futuro del empleo en 2025» - Foro Económico Mundial, 7 de enero de 2025.