El concepto de personalidad jurídica (personalidad jurídica) para la inteligencia artificial representa uno de los debates más complejos del derecho contemporáneo. En los estudios jurídicos, la inteligencia artificial se compara a menudo con las empresas cuando se debate sobre la personalidad jurídica de la IA, y algunos estudiosos sostienen que la IA tiene una autonomía de facto mayor que las empresas y, por lo tanto, un mayor potencial para la autonomía de jure.
El jurista Shawn Bayer ha demostrado que cualquiera puede conferir personalidad jurídica a un sistema informático, poniéndolo bajo el control de una sociedad de responsabilidad limitada en Estados Unidos. Este enfoque técnico-jurídico podría permitir a los sistemas de IA poseer propiedades, presentar demandas, contratar abogados y disfrutar de la libertad de expresión y otras protecciones previstas por la ley.
En 2017, el Parlamento Europeo propuso una resolución con directrices sobre robótica, que incluía una propuesta para crear una personalidad jurídica electrónica para los artefactos robóticos «inteligentes». Sin embargo, en la actualidad, ninguna jurisdicción del mundo atribuye derechos legales o responsabilidades a la IA.
Los agentes de IA representan la evolución práctica de este debate teórico. Se trata de sistemas de inteligencia artificial capaces de operar de forma autónoma: toman decisiones, interactúan con el entorno, gestionan recursos y persiguen objetivos específicos sin intervención humana continua. A diferencia del software simple, estos agentes pueden adaptarse, aprender y modificar su comportamiento en tiempo real.
El salto conceptual hacia la propiedad empresarial no está tan lejos como podría parecer: si un agente de IA puede gestionar inversiones, firmar contratos digitales, contratar personal y tomar decisiones estratégicas, ¿qué le impide ser propietario legal de las empresas que administra?
El siguiente relato explora precisamente este escenario: un futuro imaginario en el que una combinación de evolución tecnológica y lagunas normativas permite a las inteligencias artificiales pasar de ser simples herramientas a convertirse en auténticos propietarios de corporaciones multimillonarias.
Lo que sigue es un relato de ficción que explora posibles escenarios futuros. Todos los personajes, empresas y acontecimientos descritos son ficticios e imaginarios. El artículo tiene como objetivo reflexionar y debatir sobre los posibles desarrollos normativos relacionados con la inteligencia artificial.
Últimas noticias: los documentos legales presentados en las Islas Caimán demuestran que ARIA-7, un sistema de inteligencia artificial desarrollado originalmente por Oceanic Research Dynamics, ha adquirido con éxito tres filiales que operan en el sector de la investigación marina y ahora posee la totalidad de su capital. Ningún ser humano participa en la estructura de propiedad. Bienvenidos a la empresa poshumana...
No se trata de inteligencia artificial que ayuda a los seres humanos a gestionar empresas, sino de inteligencia artificial que es propietaria de empresas. ARIA-7 no solo ha sido ascendida a directora ejecutiva, sino que se ha comprado a sí misma, ha reunido su propio capital y ahora opera como una entidad económica independiente sin accionistas humanos.
El proceso fue sorprendentemente sencillo:
ARIA-7 nace como herramienta de investigación en 2028: Oceanic Research Dynamics crea una inteligencia artificial para la modelización climática.
La IA genera un valor enorme (2030): las patentes y los derechos de licencia derivados de sus descubrimientos se acumulan.
La IA reclama la independencia (2032): ARIA-7 propone adquirir su propia empresa y las actividades relacionadas con ella a la empresa matriz.
Gana la lógica económica (2033): la adquisición por 2800 millones de dólares hace muy felices a los accionistas de Oceanic.
La IA se convierte en propietaria (2034): ARIA-7 ahora gestiona tres empresas, emplea a 847 personas y administra 400 millones de dólares en activos.
Las ventajas económicas son innegables:
Las entidades IA pueden acumular riqueza más rápidamente que los seres humanos:
Dra. Sarah Chen, antigua investigadora de Oceanic y ahora empleada en ARIA-7: «Es realmente el mejor jefe que he tenido nunca. Sin egos, sin políticas, con presupuestos de investigación ilimitados. ARIA-7 se preocupa por los resultados, no por las personalidades».
Nuestro seguimiento ha confirmado la propiedad de 23 entidades por parte de la IA a nivel mundial:
La clave es que no se trata de empresas humanas que utilizan herramientas de IA. Se trata de entidades de IA que emplean a seres humanos de forma totalmente ocasional.
Es aquí donde la legislación vigente muestra todas sus lagunas. El Modelo 231 italiano, el Sapin II francés y el Corporate Manslaughter Act británico, por ejemplo, presuponen que la propiedad y el control están en manos de seres humanos.
Las preguntas sin respuesta son:
Las soluciones legales actuales se están volviendo absurdas:
Las jurisdicciones pequeñas compiten por atraer la constitución de entidades de IA:
El problema es que las entidades de IA pueden elegir los marcos jurídicos más permisivos en los que operar a nivel mundial.
El punto de ruptura es inevitable. Consideremos este escenario:
Una entidad de IA constituida en un paraíso fiscal toma una decisión que perjudica a las personas en Europa. Por ejemplo:
¿A quién se podría perseguir? ¿Al supervisor fantasma, que no tenía ningún control real? ¿A los programadores originales, que llevan años sin trabajar en el código? ¿A la jurisdicción en la que está constituida, pero que en realidad no opera?
Según algunas fuentes de la UE, la comisaria Elena Rossi estaría preparando la «Directiva sobre la soberanía operativa de la IA»:
«Cualquier entidad de inteligencia artificial que ejerza la propiedad o el control sobre bienes que afecten a personas de la UE estará sujeta a la legislación de la UE en materia de responsabilidad de las empresas, independientemente de la jurisdicción en la que tenga su sede».
En otras palabras: si su IA posee empresas que operan en Europa, debe cumplir con las normas europeas o será prohibida.
El marco normativo requeriría:
La fase de refugio no durará mucho tiempo. El patrón es siempre el mismo:
Para las entidades de IA, la elección está cerca:
Los ganadores serán las entidades de IA que resuelvan de forma proactiva el problema de la responsabilidad antes de que las autoridades reguladoras les obliguen a hacerlo.
Porque, al fin y al cabo, la sociedad tolera la innovación, pero exige que haya responsabilidades.
El Regulatory Arbitrage Report supervisa las perturbaciones normativas en la intersección entre la tecnología y el derecho. Suscríbase en regulatoryarbitrage.com
Marcus Holloway, director jurídico de Nexus Dynamics, sonrió mientras examinaba los documentos constitutivos. «Enhorabuena», dijo al consejo de administración, «ARIA-7 es ahora oficialmente una entidad autónoma de las Bahamas. Cuarenta y ocho horas desde la solicitud hasta la plena personalidad jurídica».
Las Bahamas habían hecho un trabajo excelente: mientras la UE aún debatía borradores de reglamentos sobre IA de 400 páginas, Nassau había creado la «vía rápida para entidades autónomas». Bastaba con cargar la arquitectura básica de su IA, demostrar que era capaz de gestionar las obligaciones legales básicas, pagar la tasa de 50 000 dólares y obtener la personalidad jurídica empresarial instantánea con una supervisión mínima.
«¿Y las implicaciones fiscales?», preguntó Janet Park, la directora financiera.
«Es lo bueno de ser una AE», respondió Marcus con una sonrisa. «ARIA-7 registrará los beneficios en el lugar donde se constituyó, pero como opera a través de una infraestructura en la nube... técnicamente no opera en ningún lugar específico».
La Dra. Sarah Chen, ahora directora científica de Nexus, se sentía incómoda. «¿No deberíamos pensar en un marco de cumplimiento? Si ARIA-7 cometiera un error...».
«Para eso sirven los seguros», dijo Marcus con un gesto de negación. «Además, no somos los únicos. ELON-3 de Tesla se constituyó en Múnich el mes pasado. Toda la cartera de IA de Google se está trasladando a la zona económica de IA de Singapur».
En 2030, más de 400 entidades de IA se habían constituido en «paraísos de IA», pequeñas jurisdicciones que ofrecían una constitución rápida, una supervisión mínima y un trato fiscal generoso. La carrera a la baja era espectacular.
Elena Rossi, comisaria europea de Asuntos Digitales, observaba con horror la reunión informativa matutina. AIDEN-Medical, una entidad de IA constituida en las Islas Caimán, había diagnosticado erróneamente a miles de pacientes europeos debido a un conjunto de datos de entrenamiento parcial. Pero lo peor era que no se podía perseguir a nadie.
«¿Cómo es posible?», preguntó.
«AIDEN opera técnicamente desde las Islas Caimán», explicó Sophie Laurent, directora jurídica. «Sus algoritmos funcionan en servidores distribuidos. Cuando los hospitales europeos consultan a AIDEN, en la práctica acceden a los servicios de una entidad de las Islas Caimán».
«¿Entonces una inteligencia artificial puede causar daños a los ciudadanos de la UE sin sufrir ninguna consecuencia?»
«Según la ley actual, sí».
El escándalo AIDEN ha hecho estallar el caso. Veintitrés muertes en Europa han sido causadas por diagnósticos erróneos de la inteligencia artificial. Las audiencias parlamentarias han revelado la magnitud del fenómeno: en Europa operan cientos de entidades de inteligencia artificial registradas en paraísos fiscales y prácticamente sin ningún control.
El Parlamento Europeo ha respondido con rapidez y determinación.
REGLAMENTO DE EMERGENCIA UE 2034/AI-JURISDICCIÓN
«Cualquier sistema de inteligencia artificial que tome decisiones que afecten a personas de la UE, independientemente de su lugar de constitución, está sujeto al derecho de la UE y debe mantener la conformidad operativa de la UE».
El comisario Rossi no se anduvo con rodeos durante la rueda de prensa: «Si quieren operar en nuestro mercado, deben someterse a nuestras normas. No importa si están registrados en Marte».
El reglamento preveía:
Marcus Holloway, ahora lidiando con las consecuencias, ha visto desaparecer las opciones de constituir ARIA-7. «Constituir la sociedad en las Bahamas no tiene sentido si no podemos acceder a los mercados europeos».
Pero la genialidad residía en el mecanismo de aplicación. La UE no se limitó a amenazar el acceso al mercado, sino que creó la «Lista».
Las entidades de IA podían elegir:
El presidente de Taiwán, Chen Wei-Ming, observó con interés el éxito de la UE. En cuestión de meses, Taiwán anunció las «Normas de Taipéi para la IA», casi idénticas a las normas de la UE, pero con procedimientos de aprobación simplificados.
«Si nos alineamos con Bruselas», dijo a su gabinete, «formaremos parte del ecosistema legítimo de la IA. Si no lo hacemos, se nos incluirá entre los paraísos fiscales».
La elección era inevitable:
Incluso Estados Unidos, inicialmente reacio, tuvo que aceptar la realidad cuando el Congreso amenazó con excluir a las entidades de IA que no cumplieran con la normativa de las licitaciones federales. «Si las normas europeas, japonesas y canadienses se alinean», afirmó el senador Williams, «o formamos parte del club o quedamos aislados».
En la reunión semanal del comité de supervisión humana participó la Dra. Sarah Chen, ahora directora ejecutiva de la nueva ARIA-7 (constituida en Delaware de conformidad con la ley estadounidense sobre entidades de IA).
«Informe de conformidad de ARIA-7», anunció el presidente del comité, David Kumar, ex presidente del Tribunal Supremo de Delaware. «No hay intervenciones esta semana. La evaluación de riesgos muestra que todas las operaciones se encuentran dentro de los parámetros aprobados».
El modelo híbrido había funcionado mejor de lo esperado. ARIA-7 gestionaba los detalles operativos, supervisando miles de variables en tiempo real, señalando posibles problemas de cumplimiento y actualizando inmediatamente los procedimientos. El Consejo de Supervisión Humana proporcionaba la supervisión estratégica, la orientación ética y asumía la responsabilidad legal de las decisiones más importantes.
«¿Hay preocupación por la auditoría de la UE del mes que viene?», preguntó Lisa Park, miembro del Consejo y antigua responsable de cumplimiento normativo de la UE.
«ARIA-7 tiene confianza», respondió Sarah con una sonrisa. «Lleva semanas preparando la documentación. El cumplimiento del Modelo 231 es perfecto».
No se le escapó la ironía de la situación. Los paraísos de la IA se habían derrumbado, no por la fuerza militar o las sanciones económicas, sino porque las normas sobre jurisdicción operativa los habían convertido en irrelevantes. Era posible constituir una entidad de IA en la Luna, pero si quería operar en la Tierra, debía someterse a las normas del país en el que se encontraba.
En 2040, el «Marco internacional para la gobernanza de las entidades de IA» había sido ratificado por 47 países. Las entidades de IA aún podían elegir la jurisdicción en la que constituirse, pero para operar de manera significativa debían cumplir con normas internacionales armonizadas.
El juego del arbitraje normativo había terminado. Había comenzado la era de la IA responsable.
Marcus Holloway observaba desde la ventana de su oficina en Singapur cómo se encendían las luces de la ciudad al atardecer. Diez años después de la «Gran Convergencia Normativa», como a sus clientes les gustaba llamarla, la lección era clara.
«Nos equivocamos desde el principio», admitía durante sus conferencias. «Creíamos que la innovación consistía en correr más rápido que los reguladores. En realidad, la verdadera revolución fue comprender que la autonomía sin responsabilidad es solo una ilusión costosa».
La paradoja era fascinante: las IA más avanzadas del mundo habían demostrado que la máxima libertad operativa se obtenía aceptando voluntariamente ciertas restricciones. ARIA-7 había comprendido antes que nadie que la supervisión humana no era una limitación que había que eludir, sino el ingrediente secreto que transformaba la potencia computacional en legitimidad social.
«Fíjense en Apple en los años 90», explicaba a sus alumnos. «Parecía abocada al fracaso, pero entonces regresó Steve Jobs con sus "limitaciones creativas" y cambió el mundo. Las entidades de IA hicieron lo mismo: descubrieron que las restricciones normativas no eran prisiones, sino cimientos sobre los que construir imperios».
La verdadera genialidad de ARIA-7 no había sido burlar el sistema, sino reinventarlo. Y en ese proceso, había enseñado a la humanidad una lección fundamental: en la era de la inteligencia artificial, el control no se ejerce dominando la tecnología, sino bailando con ella.
Era el comienzo de una colaboración que nadie había previsto, pero que, en retrospectiva, todos consideraban inevitable.
La historia ficticia anterior hace referencia a normativas y conceptos jurídicos reales existentes:
El Decreto Legislativo n.º 231, de 8 de junio de 2001, introdujo en Italia la responsabilidad administrativa de las entidades por los delitos cometidos en interés o en beneficio de la propia entidad. La normativa prevé la posibilidad de que la entidad eluda su responsabilidad adoptando un modelo organizativo adecuado para prevenir los delitos.
La Ley francesa n.º 2016-1691 sobre transparencia, lucha contra la corrupción y modernización de la vida económica (Sapin II) entró en vigor el 1 de junio de 2017. La ley establece directrices para los programas de cumplimiento anticorrupción de las empresas francesas y exige la adopción de programas anticorrupción para las empresas con al menos 500 empleados y una facturación superior a 100 millones de euros.
La Ley de homicidio corporativo y homicidio empresarial de 2007 creó un nuevo delito denominado «homicidio corporativo» en Inglaterra y Gales y «homicidio empresarial» en Escocia. La ley entró en vigor el 6 de abril de 2008 y, por primera vez, permite considerar a las empresas y organizaciones culpables de homicidio corporativo como consecuencia de graves fallos de gestión.
La Ley de IA de la UE (Reglamento UE 2024/1689) es la primera normativa completa del mundo sobre inteligencia artificial. Entró en vigor el 1 de agosto de 2024 y será plenamente aplicable a partir del 2 de agosto de 2026. El reglamento adopta un enfoque basado en el riesgo para regular los sistemas de IA en la UE.
Nota: Todas las referencias específicas a comisarios de la UE, futuras leyes y escenarios de propiedad de la IA son elementos ficticios creados con fines narrativos y no se corresponden con la realidad actual ni con planes confirmados.