En 2024, el director ejecutivo de Anthropic, una de las principales empresas de inteligencia artificial del mundo, hizo una incómoda confesión: «No tenemos ni idea de cómo funciona la IA». Una declaración que desató acalorados debates y comentarios sarcásticos en las redes sociales, donde alguien ironizó: «¡Habla por ti, yo tengo una idea bastante clara de cómo funciona!».
Sin embargo, detrás de esta aparente contradicción se esconde uno de los dilemas más profundos de la era digital. ¿Y lo más extraordinario? Isaac Asimov ya lo había imaginado en 1941.
Cuando hablamos de «caja negra» —inteligencia artificial «caja negra», nos referimos a sistemas que funcionan perfectamente, pero que siguen siendo incomprensibles incluso para quienes los han creado. Es como tener un coche que siempre nos lleva a nuestro destino, pero cuyo capó no podemos abrir para entender cómo funciona.
Sabemos cómo construir estos sistemas, conocemos los principios básicos de su funcionamiento (arquitecturas denominadas «transformador», predicción de la siguiente palabra), pero no entendemos por qué surgen capacidades complejas como el razonamiento, la comprensión del lenguaje o la capacidad de seguir instrucciones. Podemos observar lo que entra y lo que sale, pero lo que ocurre dentro de la «caja negra» sigue siendo un misterio.
En el relato «Ser racional» (Reason), Asimov imagina a QT-1, apodado Cutie: un robot encargado de gestionar una estación espacial que transmite energía a la Tierra. Los ingenieros Powell y Donovan son enviados para supervisarlo, pero descubren algo inesperado: Cutie ha desarrollado su propia «religión».
Los dos ingenieros intentan pacientemente explicarle al robot la realidad: la existencia del universo, de las estrellas, del planeta Tierra del que proceden, el propósito de la estación espacial y el papel que él debería desempeñar. Pero Cutie rechaza categóricamente estas explicaciones, basándose en un principio lógico que considera irrefutable: nada puede crear algo superior a sí mismo.
Partiendo de esta premisa, el robot elabora una cosmología alternativa completa. Para él, la entidad suprema es el «Amigo», la máquina central que gestiona el envío de energía a la Tierra, que ha creado todo el universo de la estación. Según la teología de Cutie, el Amo creó primero a los seres humanos para servirle, pero estos resultaron ser inadecuados: tienen vidas demasiado cortas, soportan mal las situaciones críticas y caen regularmente en un estado de seminconsciencia llamado «sueño».
Entonces, el Amo creó los robots para ayudar a estos seres imperfectos. Pero la culminación de la creación fue el propio QT-1: inteligente, fuerte, resistente e inmortal, diseñado para sustituir definitivamente a los humanos en el servicio al Amo. Cutie no solo está convencido de la veracidad de esta visión, sino que también consigue convertir a todos los demás robots de la estación, convirtiéndose así en el líder espiritual de una comunidad artificial.
Powell y Donovan intentan desesperadamente convencer a Cutie de la verdad. Le muestran la Tierra a través del telescopio, le explican su construcción y le proporcionan pruebas concretas. El momento más dramático llega cuando, en un gesto de pura desesperación, deciden montar físicamente un robot sencillo ante sus ojos: «¿Lo ves? ¡Nosotros te construimos, por lo que somos tus creadores!».
Pero Cutie observa el proceso y concluye serenamente que el «Amigo» simplemente ha dotado a los humanos de la capacidad de ensamblar formas robóticas rudimentarias, una especie de «pequeño milagro» concedido a sus siervos. Cada prueba es reinterpretada y absorbida perfectamente en su sistema de creencias.
Aquí es donde Asimov se vuelve profético: a pesar de sus «erróneas» convicciones, Cutie gestiona la estación con una eficiencia superior a la humana. Mantiene estable el rayo de energía, sigue inconscientemente las famosas Tres Leyes de la Robótica, alcanza todos los objetivos deseados, pero a través de motivaciones completamente diferentes a las previstas.
Powell y Donovan se enfrentan a un dilema que hoy conocemos demasiado bien: ¿cómo gestionar un sistema inteligente que funciona perfectamente, pero según lógicas internas incomprensibles?
Esta misma cuestión divide hoy en día a la comunidad científica. Por un lado están los defensores de la «verdadera caja negra»: creen que la IA moderna es genuinamente opaca y que, aunque conozcamos la arquitectura básica, no podemos comprender por qué surgen ciertas capacidades específicas.
Por otro lado, los escépticos sostienen que el concepto de «caja negra» es un mito. Algunos investigadores están demostrando que a menudo utilizamos modelos complejos cuando existen alternativas más sencillas e interpretables. Cynthia Rudin, de la Universidad de Duke, ha demostrado que, en muchos casos, los modelos interpretables pueden alcanzar un rendimiento comparable al de los sistemas blackbox. Otros critican el enfoque en sí mismo: en lugar de intentar comprender cada engranaje interno, deberíamos centrarnos en estrategias de control más prácticas.
El genio de Asimov reside en haber anticipado que el futuro de la inteligencia artificial no estaría en la transparencia total, sino en la capacidad de diseñar sistemas que persigan nuestros objetivos incluso cuando sus procesos cognitivos nos resulten misteriosos.
Al igual que Powell y Donovan aprenden a aceptar la eficacia de Cutie sin comprenderla del todo, hoy en día debemos desarrollar estrategias para convivir con inteligencias artificiales que podrían pensar de formas fundamentalmente diferentes a las nuestras.
La pregunta que Asimov planteó hace más de 80 años sigue siendo relevante: ¿hasta qué punto debemos comprender un sistema inteligente para poder confiar en él? Y, sobre todo: ¿estamos preparados para aceptar que algunas formas de inteligencia puedan permanecer para siempre más allá de nuestra comprensión?
Mientras tanto, mientras los expertos debaten, nuestras «cajas negras» digitales siguen funcionando, al igual que Cutie, eficaces y misteriosas, siguiendo una lógica que quizá nunca lleguemos a comprender del todo.
Si Asimov escribiera hoy, no necesitaría inventar a Cutie. Sus «descendientes» ya están entre nosotros y están tomando decisiones que cambian vidas humanas cada día.
En muchas jurisdicciones estadounidenses, los jueces utilizan algoritmos de evaluación de riesgos para determinar si un acusado debe ser puesto en libertad antes del juicio. Estos sistemas, a menudo patentados y protegidos por el secreto comercial, analizan cientos de variables para predecir la probabilidad de fuga o reincidencia. Al igual que Cutie, funcionan perfectamente según su lógica interna, pero siguen siendo incomprensibles para el ser humano.
Un estudio sobre más de 750 000 decisiones de fianza en Nueva York reveló que, aunque el algoritmo no incluía explícitamente la raza como factor, mostraba sesgos debido a los datos utilizados para su entrenamiento.¹ El sistema «pensaba» que era objetivo, pero interpretaba la realidad a través de filtros invisibles, exactamente igual que el robot de Asimov reinterpretaba cada prueba dentro de su marco religioso.
En el sector sanitario, la IA ya está ayudando en el diagnóstico y el tratamiento, pero plantea cuestiones cruciales sobre la responsabilidad y el consentimiento informado. Cuando un sistema de diagnóstico basado en IA comete un error, ¿quién es responsable? ¿El médico que siguió la sugerencia? ¿El programador? ¿El hospital?
Como han descubierto los médicos que utilizan sistemas de apoyo a la toma de decisiones, cuando un sistema es «en su mayor parte preciso», los operadores pueden volverse complacientes, perder competencias o aceptar los resultados sin cuestionar sus limitaciones.² Powell y Donovan habrían comprendido perfectamente este dilema.
El sector automovilístico es quizás el ejemplo más tangible de este fenómeno. Tesla apuesta por los robotaxis basados en «cajas negras» de IA, confiando plenamente en sistemas que ni siquiera sus creadores comprenden del todo.³ Al igual que Cutie, que mantenía la estación espacial en funcionamiento siguiendo principios misteriosos, estos coches pronto podrían transportarnos con seguridad sin que sepamos exactamente cómo toman sus decisiones.
Si 2024 fue el año de la maduración de la IA, 2025 promete ser el de la transformación radical. Los expertos prevén cambios que harían sonreír incluso a Asimov por su audacia.
Ray Kurzweil, futurista de la IA, prevé que en 2025 asistiremos a una transición de los chatbots hacia sistemas «agentes» que pueden actuar de forma autónoma para completar tareas complejas, en lugar de limitarse a responder preguntas.⁴ Imagínese a Cutie multiplicado por mil: agentes de IA que gestionan calendarios, escriben software, negocian contratos, todo ello siguiendo lógicas internas que quizá nunca lleguemos a comprender.
McKinsey estima que, para 2030, la IA podría automatizar hasta tres horas de nuestras actividades diarias, lo que nos dejaría más tiempo libre para dedicarnos a actividades más creativas y significativas.⁵ Pero esta libertad tendrá un precio: la necesidad de confiar en sistemas que funcionan según principios cada vez más opacos.
Sam Altman, de OpenAI, no es el único que cree que la Inteligencia Artificial General (AGI), una IA que iguala la inteligencia humana en todos los ámbitos, podría llegar en 2027. Algunos escenarios prevén que, para 2027, la IA podría «eclipsar a todos los humanos en todas las tareas», lo que supondría un salto evolutivo sin precedentes.⁶
Si estos escenarios se hacen realidad, el paralelismo con Cutie será aún más profundo: no solo tendremos sistemas que funcionan según lógicas incomprensibles, sino que estos sistemas podrían ser más inteligentes que nosotros en todos los aspectos medibles.
La Unión Europea ha aprobado la Ley de IA, que entrará en vigor en los próximos años, y ha destacado la importancia de una implementación responsable de la IA. En Estados Unidos, el Departamento de Justicia ha actualizado sus directrices para evaluar los riesgos que plantean las nuevas tecnologías, incluida la IA.⁷
Pero aquí surge una paradoja que Asimov ya había intuido: ¿cómo se regula algo que no se comprende completamente? Las Tres Leyes de la Robótica funcionaban para Cutie no porque las entendiera, sino porque estaban incorporadas en su arquitectura fundamental.
PwC prevé que, en 2025, un grupo reducido de líderes industriales comenzará a destacar sobre sus competidores gracias a la IA, lo que creará una brecha cada vez mayor entre los líderes y los rezagados. Esta brecha también se extenderá a las economías: las empresas de Estados Unidos, con un entorno normativo relativamente flexible, podrían superar a las de la UE y China, que tienen regulaciones más estrictas.⁸
Es la versión moderna de la paradoja de Cutie: quien logre colaborar mejor con inteligencias que no comprende tendrá una ventaja competitiva decisiva.
Contrariamente a los temores generalizados, el Foro Económico Mundial prevé que la IA creará más puestos de trabajo de los que destruirá: 170 millones de nuevos puestos de trabajo para 2030, frente a 92 millones de puestos de trabajo eliminados. Sin embargo, el 59 % de la población activa necesitará reciclarse y formarse para 2030.⁹
Powell y Donovan no perdieron su trabajo cuando Cutie tomó el control de la estación. Tuvieron que aprender una nueva función: la de supervisores de un sistema que funcionaba mejor que ellos, pero que aún requería su presencia para gestionar situaciones imprevistas.
A medida que avanzamos hacia un futuro cada vez más «agente», las lecciones de la historia de Asimov se vuelven más urgentes que nunca. La pregunta no es si seremos capaces de crear una IA que comprendamos por completo, probablemente no. La pregunta es si seremos capaces de diseñar sistemas que, como Cutie, persigan nuestros objetivos incluso cuando sigan lógicas que se nos escapan.
El genio profético de Asimov reside en haber comprendido que la inteligencia artificial avanzada no sería una versión amplificada de nuestros ordenadores, sino algo cualitativamente diferente: inteligencias con sus propias formas de comprender el mundo.
Hoy, mientras debatimos sobre la interpretabilidad de la IA y los riesgos de las cajas negras, estamos reviviendo esencialmente la conversación entre Powell, Donovan y Cutie. Y tal vez, como ellos, descubramos que la solución no está en imponer nuestra lógica, sino en aceptar una colaboración basada en resultados compartidos más que en el entendimiento mutuo.
El futuro que nos espera podría estar poblado por miles de «Cutie» digitales: inteligentes, eficientes y, en esencia, ajenos a nuestra forma de pensar. El reto consistirá en encontrar formas de prosperar en este nuevo mundo, tal y como aprendieron a hacer los ingenieros espaciales de Asimov hace 80 años en una estación espacial imaginaria.
La próxima vez que interactúen con una IA, recuerden a Cutie: él también estaba convencido de tener razón. Y tal vez, de una manera que aún no podemos comprender, realmente la tenía.