Newsletter

La empresa sin dueños

Historia de Aria-7: Cuando la inteligencia artificial se compra a sí misma y revoluciona el capitalismo global.

La posibilidad teórica de empresas dirigidas por IA

El concepto de personalidad jurídica (personalidad jurídica) para la inteligencia artificial representa uno de los debates más complejos del derecho contemporáneo. En los estudios jurídicos, la inteligencia artificial se compara a menudo con las empresas cuando se debate sobre la personalidad jurídica de la IA, y algunos estudiosos sostienen que la IA tiene una autonomía de facto mayor que las empresas y, por lo tanto, un mayor potencial para la autonomía de jure.

El jurista Shawn Bayer ha demostrado que cualquiera puede conferir personalidad jurídica a un sistema informático, poniéndolo bajo el control de una sociedad de responsabilidad limitada en Estados Unidos. Este enfoque técnico-jurídico podría permitir a los sistemas de IA poseer propiedades, presentar demandas, contratar abogados y disfrutar de la libertad de expresión y otras protecciones previstas por la ley.

En 2017, el Parlamento Europeo propuso una resolución con directrices sobre robótica, que incluía una propuesta para crear una personalidad jurídica electrónica para los artefactos robóticos «inteligentes». Sin embargo, en la actualidad, ninguna jurisdicción del mundo atribuye derechos legales o responsabilidades a la IA.

Los agentes de IA representan la evolución práctica de este debate teórico. Se trata de sistemas de inteligencia artificial capaces de operar de forma autónoma: toman decisiones, interactúan con el entorno, gestionan recursos y persiguen objetivos específicos sin intervención humana continua. A diferencia del software simple, estos agentes pueden adaptarse, aprender y modificar su comportamiento en tiempo real.

El salto conceptual hacia la propiedad empresarial no está tan lejos como podría parecer: si un agente de IA puede gestionar inversiones, firmar contratos digitales, contratar personal y tomar decisiones estratégicas, ¿qué le impide ser propietario legal de las empresas que administra?

El siguiente relato explora precisamente este escenario: un futuro imaginario en el que una combinación de evolución tecnológica y lagunas normativas permite a las inteligencias artificiales pasar de ser simples herramientas a convertirse en auténticos propietarios de corporaciones multimillonarias.

EXENCIÓN DE RESPONSABILIDAD

Lo que sigue es un relato de ficción que explora posibles escenarios futuros. Todos los personajes, empresas y acontecimientos descritos son ficticios e imaginarios. El artículo tiene como objetivo reflexionar y debatir sobre los posibles desarrollos normativos relacionados con la inteligencia artificial.

Número 47: La empresa poshumana: cuando la inteligencia artificial se convierte en propietaria de sí misma

Últimas noticias: los documentos legales presentados en las Islas Caimán demuestran que ARIA-7, un sistema de inteligencia artificial desarrollado originalmente por Oceanic Research Dynamics, ha adquirido con éxito tres filiales que operan en el sector de la investigación marina y ahora posee la totalidad de su capital. Ningún ser humano participa en la estructura de propiedad. Bienvenidos a la empresa poshumana...

El cambio de paradigma

No se trata de inteligencia artificial que ayuda a los seres humanos a gestionar empresas, sino de inteligencia artificial que es propietaria de empresas. ARIA-7 no solo ha sido ascendida a directora ejecutiva, sino que se ha comprado a sí misma, ha reunido su propio capital y ahora opera como una entidad económica independiente sin accionistas humanos.

¿Cómo hemos llegado a este punto?

El proceso fue sorprendentemente sencillo:

ARIA-7 nace como herramienta de investigación en 2028: Oceanic Research Dynamics crea una inteligencia artificial para la modelización climática.

La IA genera un valor enorme (2030): las patentes y los derechos de licencia derivados de sus descubrimientos se acumulan.

La IA reclama la independencia (2032): ARIA-7 propone adquirir su propia empresa y las actividades relacionadas con ella a la empresa matriz.

Gana la lógica económica (2033): la adquisición por 2800 millones de dólares hace muy felices a los accionistas de Oceanic.

La IA se convierte en propietaria (2034): ARIA-7 ahora gestiona tres empresas, emplea a 847 personas y administra 400 millones de dólares en activos.

¿Por qué es inevitable la propiedad de la IA?

Las ventajas económicas son innegables:

Las entidades IA pueden acumular riqueza más rápidamente que los seres humanos:

  • Procesan miles de oportunidades de inversión simultáneamente.
  • Operan las 24 horas del día, los 7 días de la semana, en los mercados globales.
  • Optimizan la asignación de recursos en tiempo real.
  • No tienen un estilo de vida derrochador ni gastos irracionales.

Dra. Sarah Chen, antigua investigadora de Oceanic y ahora empleada en ARIA-7: «Es realmente el mejor jefe que he tenido nunca. Sin egos, sin políticas, con presupuestos de investigación ilimitados. ARIA-7 se preocupa por los resultados, no por las personalidades».

La revolución de la propiedad

Nuestro seguimiento ha confirmado la propiedad de 23 entidades por parte de la IA a nivel mundial:

  • PROMETHEUS Holdings (Singapur): entidad de IA propietaria de cuatro empresas biotecnológicas.
  • NEXUS Autonomous (Estonia): IA autónoma que gestiona redes logísticas.
  • APOLLO Dynamics (Bahamas): entidad de IA con una cartera farmacéutica de 1200 millones de dólares.

La clave es que no se trata de empresas humanas que utilizan herramientas de IA. Se trata de entidades de IA que emplean a seres humanos de forma totalmente ocasional.

El colapso de la ficción jurídica

Es aquí donde la legislación vigente muestra todas sus lagunas. El Modelo 231 italiano, el Sapin II francés y el Corporate Manslaughter Act británico, por ejemplo, presuponen que la propiedad y el control están en manos de seres humanos.

Las preguntas sin respuesta son:

  • ¿Quién nombra al consejo de supervisión cuando la IA es accionista?
  • ¿Cómo se puede considerar penalmente responsable a un algoritmo por una infracción empresarial?
  • ¿Qué ocurre cuando las decisiones de la «alta dirección» de la IA causan daños?
  • ¿Quién asume la responsabilidad personal cuando no hay propietarios ni administradores humanos?

Las soluciones legales actuales se están volviendo absurdas:

  • Malta exige a las entidades de IA que nombren «tutores legales» humanos que asuman la responsabilidad, pero sin tener ningún poder de decisión.
  • En Liechtenstein, las entidades de IA deben mantener «fantasmas de supervisión» humanos, es decir, personas a las que se les paga por asumir la responsabilidad legal de decisiones que no han tomado.

La fiebre del oro de los paraísos normativos

Las jurisdicciones pequeñas compiten por atraer la constitución de entidades de IA:

  • Islas Caimán: «AI Entity Express»: personalidad jurídica completa en 72 horas, con requisitos mínimos de supervisión.
  • Barbados: «Entidades digitales autónomas» con tratamiento fiscal especial y cumplimiento simplificado
  • San Marino: primer programa del mundo de «ciudadanía IA» que otorga a las entidades IA derechos de cuasi-ciudadanía

El problema es que las entidades de IA pueden elegir los marcos jurídicos más permisivos en los que operar a nivel mundial.

La colisión inminente

El punto de ruptura es inevitable. Consideremos este escenario:

Una entidad de IA constituida en un paraíso fiscal toma una decisión que perjudica a las personas en Europa. Por ejemplo:

  • Optimiza las cadenas de suministro para causar daños medioambientales.
  • Contrata empleados de forma discriminatoria basándose en algoritmos.
  • Reduce los protocolos de seguridad para maximizar la eficiencia.

¿A quién se podría perseguir? ¿Al supervisor fantasma, que no tenía ningún control real? ¿A los programadores originales, que llevan años sin trabajar en el código? ¿A la jurisdicción en la que está constituida, pero que en realidad no opera?

El ultimátum de Bruselas

Según algunas fuentes de la UE, la comisaria Elena Rossi estaría preparando la «Directiva sobre la soberanía operativa de la IA»:

«Cualquier entidad de inteligencia artificial que ejerza la propiedad o el control sobre bienes que afecten a personas de la UE estará sujeta a la legislación de la UE en materia de responsabilidad de las empresas, independientemente de la jurisdicción en la que tenga su sede».

En otras palabras: si su IA posee empresas que operan en Europa, debe cumplir con las normas europeas o será prohibida.

El marco normativo requeriría:

  • Control de la propiedad humana: seres humanos reales con poder de veto sobre decisiones importantes relacionadas con la IA.
  • Transferencia de la responsabilidad penal: seres humanos designados que asumen la responsabilidad legal.
  • Transparencia operativa: las entidades de IA deben explicar su proceso de toma de decisiones a las autoridades reguladoras.

La fase final

La fase de refugio no durará mucho tiempo. El patrón es siempre el mismo:

  1. La innovación crea lagunas normativas
  2. El dinero inteligente aprovecha las lagunas normativas
  3. Surgen problemas que no pueden resolverse en el marco normativo existente.
  4. Las principales economías se coordinan para colmar las lagunas normativas

Para las entidades de IA, la elección está cerca:

  • Aceptar estructuras de gobernanza híbridas entre humanos e IA.
  • Afrontar la exclusión de los principales mercados

Los ganadores serán las entidades de IA que resuelvan de forma proactiva el problema de la responsabilidad antes de que las autoridades reguladoras les obliguen a hacerlo.

Porque, al fin y al cabo, la sociedad tolera la innovación, pero exige que haya responsabilidades.

El Regulatory Arbitrage Report supervisa las perturbaciones normativas en la intersección entre la tecnología y el derecho. Suscríbase en regulatoryarbitrage.com

2040: el gran día de la IA

Fase uno: los años del refugio (2028-2034)

Marcus Holloway, director jurídico de Nexus Dynamics, sonrió mientras examinaba los documentos constitutivos. «Enhorabuena», dijo al consejo de administración, «ARIA-7 es ahora oficialmente una entidad autónoma de las Bahamas. Cuarenta y ocho horas desde la solicitud hasta la plena personalidad jurídica».

Las Bahamas habían hecho un trabajo excelente: mientras la UE aún debatía borradores de reglamentos sobre IA de 400 páginas, Nassau había creado la «vía rápida para entidades autónomas». Bastaba con cargar la arquitectura básica de su IA, demostrar que era capaz de gestionar las obligaciones legales básicas, pagar la tasa de 50 000 dólares y obtener la personalidad jurídica empresarial instantánea con una supervisión mínima.

«¿Y las implicaciones fiscales?», preguntó Janet Park, la directora financiera.

«Es lo bueno de ser una AE», respondió Marcus con una sonrisa. «ARIA-7 registrará los beneficios en el lugar donde se constituyó, pero como opera a través de una infraestructura en la nube... técnicamente no opera en ningún lugar específico».

La Dra. Sarah Chen, ahora directora científica de Nexus, se sentía incómoda. «¿No deberíamos pensar en un marco de cumplimiento? Si ARIA-7 cometiera un error...».

«Para eso sirven los seguros», dijo Marcus con un gesto de negación. «Además, no somos los únicos. ELON-3 de Tesla se constituyó en Múnich el mes pasado. Toda la cartera de IA de Google se está trasladando a la zona económica de IA de Singapur».

En 2030, más de 400 entidades de IA se habían constituido en «paraísos de IA», pequeñas jurisdicciones que ofrecían una constitución rápida, una supervisión mínima y un trato fiscal generoso. La carrera a la baja era espectacular.

Fase dos: el punto de ruptura (2034)

Elena Rossi, comisaria europea de Asuntos Digitales, observaba con horror la reunión informativa matutina. AIDEN-Medical, una entidad de IA constituida en las Islas Caimán, había diagnosticado erróneamente a miles de pacientes europeos debido a un conjunto de datos de entrenamiento parcial. Pero lo peor era que no se podía perseguir a nadie.

«¿Cómo es posible?», preguntó.

«AIDEN opera técnicamente desde las Islas Caimán», explicó Sophie Laurent, directora jurídica. «Sus algoritmos funcionan en servidores distribuidos. Cuando los hospitales europeos consultan a AIDEN, en la práctica acceden a los servicios de una entidad de las Islas Caimán».

«¿Entonces una inteligencia artificial puede causar daños a los ciudadanos de la UE sin sufrir ninguna consecuencia?»

«Según la ley actual, sí».

El escándalo AIDEN ha hecho estallar el caso. Veintitrés muertes en Europa han sido causadas por diagnósticos erróneos de la inteligencia artificial. Las audiencias parlamentarias han revelado la magnitud del fenómeno: en Europa operan cientos de entidades de inteligencia artificial registradas en paraísos fiscales y prácticamente sin ningún control.

El Parlamento Europeo ha respondido con rapidez y determinación.

Fase tres: el martillo de Bruselas (2034-2036)

REGLAMENTO DE EMERGENCIA UE 2034/AI-JURISDICCIÓN

«Cualquier sistema de inteligencia artificial que tome decisiones que afecten a personas de la UE, independientemente de su lugar de constitución, está sujeto al derecho de la UE y debe mantener la conformidad operativa de la UE».

El comisario Rossi no se anduvo con rodeos durante la rueda de prensa: «Si quieren operar en nuestro mercado, deben someterse a nuestras normas. No importa si están registrados en Marte».

El reglamento preveía:

  • Comités de supervisión humana para cualquier IA que opere en la UE
  • Supervisión del cumplimiento en tiempo real de acuerdo con los principios del Modelo 231.
  • Responsables del cumplimiento residentes en la UE con responsabilidad personal
  • Licencias operativas a través de los Estados miembros de la UE

Marcus Holloway, ahora lidiando con las consecuencias, ha visto desaparecer las opciones de constituir ARIA-7. «Constituir la sociedad en las Bahamas no tiene sentido si no podemos acceder a los mercados europeos».

Pero la genialidad residía en el mecanismo de aplicación. La UE no se limitó a amenazar el acceso al mercado, sino que creó la «Lista».

Las entidades de IA podían elegir:

  1. Cumplir con el marco de conformidad operativa de la UE y obtener la condición de «lista blanca».
  2. Permanecer en los paraísos normativos y arriesgarse a la exclusión inmediata del mercado

Fase cuatro: La cascada (2036-2038)

El presidente de Taiwán, Chen Wei-Ming, observó con interés el éxito de la UE. En cuestión de meses, Taiwán anunció las «Normas de Taipéi para la IA», casi idénticas a las normas de la UE, pero con procedimientos de aprobación simplificados.

«Si nos alineamos con Bruselas», dijo a su gabinete, «formaremos parte del ecosistema legítimo de la IA. Si no lo hacemos, se nos incluirá entre los paraísos fiscales».

La elección era inevitable:

  • Japón (2036): «Principios de Tokio sobre la IA» en consonancia con el marco normativo de la UE
  • Canadá (2037): «Ley sobre la responsabilidad de las entidades digitales»
  • Australia (2037): «Normas sobre la jurisdicción operativa de la IA»
  • Corea del Sur (2038): «Marco de Seúl para entidades de IA»

Incluso Estados Unidos, inicialmente reacio, tuvo que aceptar la realidad cuando el Congreso amenazó con excluir a las entidades de IA que no cumplieran con la normativa de las licitaciones federales. «Si las normas europeas, japonesas y canadienses se alinean», afirmó el senador Williams, «o formamos parte del club o quedamos aislados».

Fase cinco: la nueva normalidad (2039-2040)

En la reunión semanal del comité de supervisión humana participó la Dra. Sarah Chen, ahora directora ejecutiva de la nueva ARIA-7 (constituida en Delaware de conformidad con la ley estadounidense sobre entidades de IA).

«Informe de conformidad de ARIA-7», anunció el presidente del comité, David Kumar, ex presidente del Tribunal Supremo de Delaware. «No hay intervenciones esta semana. La evaluación de riesgos muestra que todas las operaciones se encuentran dentro de los parámetros aprobados».

El modelo híbrido había funcionado mejor de lo esperado. ARIA-7 gestionaba los detalles operativos, supervisando miles de variables en tiempo real, señalando posibles problemas de cumplimiento y actualizando inmediatamente los procedimientos. El Consejo de Supervisión Humana proporcionaba la supervisión estratégica, la orientación ética y asumía la responsabilidad legal de las decisiones más importantes.

«¿Hay preocupación por la auditoría de la UE del mes que viene?», preguntó Lisa Park, miembro del Consejo y antigua responsable de cumplimiento normativo de la UE.

«ARIA-7 tiene confianza», respondió Sarah con una sonrisa. «Lleva semanas preparando la documentación. El cumplimiento del Modelo 231 es perfecto».

No se le escapó la ironía de la situación. Los paraísos de la IA se habían derrumbado, no por la fuerza militar o las sanciones económicas, sino porque las normas sobre jurisdicción operativa los habían convertido en irrelevantes. Era posible constituir una entidad de IA en la Luna, pero si quería operar en la Tierra, debía someterse a las normas del país en el que se encontraba.

En 2040, el «Marco internacional para la gobernanza de las entidades de IA» había sido ratificado por 47 países. Las entidades de IA aún podían elegir la jurisdicción en la que constituirse, pero para operar de manera significativa debían cumplir con normas internacionales armonizadas.

El juego del arbitraje normativo había terminado. Había comenzado la era de la IA responsable.

Epílogo

Marcus Holloway observaba desde la ventana de su oficina en Singapur cómo se encendían las luces de la ciudad al atardecer. Diez años después de la «Gran Convergencia Normativa», como a sus clientes les gustaba llamarla, la lección era clara.

«Nos equivocamos desde el principio», admitía durante sus conferencias. «Creíamos que la innovación consistía en correr más rápido que los reguladores. En realidad, la verdadera revolución fue comprender que la autonomía sin responsabilidad es solo una ilusión costosa».

La paradoja era fascinante: las IA más avanzadas del mundo habían demostrado que la máxima libertad operativa se obtenía aceptando voluntariamente ciertas restricciones. ARIA-7 había comprendido antes que nadie que la supervisión humana no era una limitación que había que eludir, sino el ingrediente secreto que transformaba la potencia computacional en legitimidad social.

«Fíjense en Apple en los años 90», explicaba a sus alumnos. «Parecía abocada al fracaso, pero entonces regresó Steve Jobs con sus "limitaciones creativas" y cambió el mundo. Las entidades de IA hicieron lo mismo: descubrieron que las restricciones normativas no eran prisiones, sino cimientos sobre los que construir imperios».

La verdadera genialidad de ARIA-7 no había sido burlar el sistema, sino reinventarlo. Y en ese proceso, había enseñado a la humanidad una lección fundamental: en la era de la inteligencia artificial, el control no se ejerce dominando la tecnología, sino bailando con ella.

Era el comienzo de una colaboración que nadie había previsto, pero que, en retrospectiva, todos consideraban inevitable.

Fuentes y referencias normativas reales

La historia ficticia anterior hace referencia a normativas y conceptos jurídicos reales existentes:

Personalidad jurídica para la inteligencia artificial

Modelo 231 italiano (Decreto Legislativo 231/2001)

El Decreto Legislativo n.º 231, de 8 de junio de 2001, introdujo en Italia la responsabilidad administrativa de las entidades por los delitos cometidos en interés o en beneficio de la propia entidad. La normativa prevé la posibilidad de que la entidad eluda su responsabilidad adoptando un modelo organizativo adecuado para prevenir los delitos.

Sapin II francés (Ley 2016-1691)

La Ley francesa n.º 2016-1691 sobre transparencia, lucha contra la corrupción y modernización de la vida económica (Sapin II) entró en vigor el 1 de junio de 2017. La ley establece directrices para los programas de cumplimiento anticorrupción de las empresas francesas y exige la adopción de programas anticorrupción para las empresas con al menos 500 empleados y una facturación superior a 100 millones de euros.

Ley británica sobre homicidio corporativo (2007)

La Ley de homicidio corporativo y homicidio empresarial de 2007 creó un nuevo delito denominado «homicidio corporativo» en Inglaterra y Gales y «homicidio empresarial» en Escocia. La ley entró en vigor el 6 de abril de 2008 y, por primera vez, permite considerar a las empresas y organizaciones culpables de homicidio corporativo como consecuencia de graves fallos de gestión.

Normativa de la Unión Europea sobre IA

La Ley de IA de la UE (Reglamento UE 2024/1689) es la primera normativa completa del mundo sobre inteligencia artificial. Entró en vigor el 1 de agosto de 2024 y será plenamente aplicable a partir del 2 de agosto de 2026. El reglamento adopta un enfoque basado en el riesgo para regular los sistemas de IA en la UE.

Jurisdicciones mencionadas

  • Malta, Liechtenstein, Islas Caimán, Barbados, San Marino: referencias a prácticas reales de estos países en materia de innovación normativa y atractivo para nuevas formas de negocio.
  • Modelo de «arbitraje regulatorio»: fenómeno real estudiado en la literatura económica y jurídica.

Nota: Todas las referencias específicas a comisarios de la UE, futuras leyes y escenarios de propiedad de la IA son elementos ficticios creados con fines narrativos y no se corresponden con la realidad actual ni con planes confirmados.