Imagina un vagón de tren fuera de control que se dirige hacia cinco personas. Puedes accionar una palanca para desviarlo hacia otra vía, pero allí solo hay una persona. ¿Qué harías?
Pero esperen: ¿y si esa persona fuera un niño y las cinco fueran ancianas? ¿Y si alguien les ofreciera dinero por tirar de la palanca? ¿Y si no vieran bien la situación?
¿Qué es el problema del tranvía? Formulado por la filósofa Philippa Foot en 1967, este experimento mental presenta un dilema aparentemente sencillo: sacrificar una vida para salvar cinco. Pero las variaciones son infinitas: el señor gordo al que empujar por el puente, el médico que podría matar a un paciente sano para salvar a cinco con sus órganos, el juez que podría condenar a un inocente para detener una revuelta.
Cada escenario pone a prueba nuestros principios morales fundamentales: ¿cuándo es aceptable causar un daño para prevenir uno mayor?
Esta complejidad es precisamente lo que hace que la ética de la inteligencia artificial sea un reto tan crucial para nuestra época.
El famoso «problema del tranvía» es mucho más complejo de lo que parece, y esa complejidad es precisamente lo que hace que la ética de la inteligencia artificial sea un reto tan crucial para nuestra época.
El problema del tranvía, formulado por la filósofa Philippa Foot en 1967, nunca se concibió para resolver dilemas prácticos. Como señala elInstituto Alan Turing, el verdadero propósito original era demostrar que los experimentos mentales están, en esencia, divorciados de la realidad. Sin embargo, en la era de la IA, esta paradoja ha adquirido una relevancia inmediata.
¿Por qué es importante ahora? Porque, por primera vez en la historia, las máquinas deben tomar decisiones éticas en tiempo real, desde los coches autónomos que circulan por el tráfico hasta los sistemas sanitarios que asignan recursos limitados.
Anthropic, la empresa detrás de Claude, ha abordado este reto con un enfoque revolucionario denominado IA constitucional. En lugar de basarse exclusivamente en la retroalimentación humana, Claude está entrenado en una «constitución» de principios éticos explícitos, que incluyen elementos de la Declaración Universal de Derechos Humanos.
¿Cómo funciona en la práctica?
Unaanálisis empírico de 700 000 conversaciones ha revelado que Claude expresa más de 3000 valores únicos, desde la profesionalidad hasta el pluralismo moral, adaptándolos a diferentes contextos y manteniendo la coherencia ética.
Como ilustra brillantemente el proyecto interactivo Absurd Trolley Problems de Neal Agarwal, los dilemas éticos reales rara vez son binarios y a menudo resultan absurdos en su complejidad. Esta intuición es crucial para comprender los retos de la IA moderna.
Investigaciones recientes demuestran que los dilemas éticos de la IA van mucho más allá del clásico problema del tranvía. El proyecto MultiTP, que ha probado 19 modelos de IA en más de 100 idiomas, ha descubierto variaciones culturales significativas en la alineación ética: los modelos se ajustan más a las preferencias humanas en inglés, coreano y chino, pero menos en hindi y somalí.
Los retos reales incluyen:
Un aspecto que a menudo se pasa por alto es que la ética de la IA podría no ser simplemente una versión imperfecta de la humana, sino un paradigma completamente diferente y, en algunos casos, potencialmente más coherente.
El caso de «Yo, robot»: En la película de 2004, el detective Spooner (Will Smith) desconfía de los robots después de que uno de ellos le salvara la vida en un accidente de coche, mientras que una niña de 12 años se ahogaba. El robot explica su decisión:
«Era la elección lógica. Calculé que ella tenía un 45 % de posibilidades de sobrevivir. Sarah solo tenía un 11 %. Esa era la hija de alguien. Un 11 % es más que suficiente».
Este es exactamente el tipo de ética sobre la que funciona la IA hoy en día: algoritmos que sopesan probabilidades, optimizan resultados y toman decisiones basadas en datos objetivos en lugar de intuiciones emocionales o sesgos sociales. La escena ilustra un punto crucial: la IA opera con principios éticos diferentes, pero no necesariamente inferiores a los humanos:
Ejemplos concretos en la IA moderna:
Sin embargo, antes de celebrar la superioridad de la ética de la IA, debemos enfrentarnos a sus límites intrínsecos. La escena de «Yo, robot» que parece tan lógica esconde problemas profundos:
El problema del contexto perdido: cuando el robot decide salvar al adulto en lugar de a la niña basándose en las probabilidades, ignora por completo elementos cruciales:
Los riesgos concretos de la ética puramente algorítmica:
Reduccionismo extremo: convertir decisiones morales complejas en cálculos matemáticos puede eliminar la dignidad humana de la ecuación. ¿Quién decide qué variables son importantes?
Sesgos ocultos: los algoritmos incorporan inevitablemente los sesgos de sus creadores y de los datos de entrenamiento. Un sistema que «optimiza» podría perpetuar la discriminación sistémica.
Uniformidad cultural: La ética de la IA corre el riesgo de imponer una visión occidental, tecnológica y cuantitativa de la moralidad a culturas que valoran de manera diferente las relaciones humanas.
Ejemplos de retos reales:
Expertos como Roger Scruton critican el uso del problema del tranvía por su tendencia a reducir dilemas complejos a «pura aritmética», eliminando relaciones moralmente relevantes. Como argumenta un artículo de TripleTen, «resolver el problema del tranvía no hará que la IA sea ética»: se necesita un enfoque más holístico.
La pregunta central es: ¿Podemos permitirnos delegar decisiones morales a sistemas que, por muy sofisticados que sean, carecen de empatía, comprensión contextual y sabiduría experiencial humana?
Nuevas propuestas para un equilibrio:
Para los líderes empresariales, esta evolución requiere un enfoque matizado:
Como destaca IBM en su perspectiva para 2025, la alfabetización en IA y la responsabilidad clara serán los retos más críticos para el próximo año.
LaUNESCO está liderando iniciativas globales para la ética de la IA, con el 3.er Foro Global previsto para junio de 2025 en Bangkok. El objetivo no es encontrar soluciones universales a los dilemas morales, sino desarrollar marcos que permitan decisiones éticas transparentes y culturalmente sensibles.
¿La lección clave? El problema del tranvía no sirve como solución, sino como recordatorio de la complejidad intrínseca de las decisiones morales. El verdadero reto no es elegir entre la ética humana o la algorítmica, sino encontrar el equilibrio adecuado entre la eficiencia computacional y la sabiduría humana.
La IA ética del futuro deberá reconocer sus propios límites: excelente en el procesamiento de datos y la identificación de patrones, pero inadecuada cuando se necesita empatía, comprensión cultural y juicio contextual. Como en la escena de «Yo, robot», la frialdad del cálculo puede ser a veces más ética, pero solo si sigue siendo una herramienta en manos de una supervisión humana consciente, y no un sustituto del juicio moral humano.
El «(o quizá no)» de nuestro título no es indecisión, sino sabiduría: reconocer que la ética, ya sea humana o artificial, no admite soluciones sencillas en un mundo complejo.
Inspiración inicial:
Investigación académica:
Análisis industriales:
Desarrollos normativos: