Newsletter

Regular lo que no se crea: ¿corre Europa el riesgo de la irrelevancia tecnológica?

**TÍTULO: Ley Europea de Inteligencia Artificial - La paradoja de quién regula lo que no se desarrolla** **SÍNTESIS:** Europa atrae sólo una décima parte de la inversión mundial en inteligencia artificial, pero pretende dictar las normas mundiales. Este es el "efecto Bruselas": imponer normativas a escala planetaria mediante el poder del mercado sin impulsar la innovación. La Ley de IA entra en vigor de forma escalonada hasta 2027, pero las multinacionales tecnológicas responden con estrategias de evasión creativas: invocando secretos comerciales para evitar revelar datos de entrenamiento, elaborando resúmenes técnicamente conformes pero incomprensibles, utilizando la autoevaluación para rebajar los sistemas de "alto riesgo" a "riesgo mínimo", forum shopping eligiendo Estados miembros con controles menos estrictos. La paradoja de los derechos de autor extraterritoriales: la UE exige que OpenAI cumpla las leyes europeas incluso para la formación fuera de Europa, un principio nunca visto en el derecho internacional. Surge el "modelo dual": versiones europeas limitadas frente a versiones globales avanzadas de los mismos productos de IA. Riesgo real: Europa se convierte en una "fortaleza digital" aislada de la innovación global, con los ciudadanos europeos accediendo a tecnologías inferiores. El Tribunal de Justicia en el caso de la puntuación crediticia ya ha rechazado la defensa de los "secretos comerciales", pero la incertidumbre interpretativa sigue siendo enorme: ¿qué significa exactamente "resumen suficientemente detallado"? Nadie lo sabe. Última cuestión sin resolver: ¿está la UE creando una tercera vía ética entre el capitalismo estadounidense y el control estatal chino, o simplemente exportando burocracia a un ámbito en el que no compite? Por ahora: líder mundial en regulación de la IA, marginal en su desarrollo. Amplio programa.
Fabio Lauria
Consejero Delegado y Fundador de Electe‍

La Ley Europea de IA: entre la transparencia y las estrategias de elusión empresarial

La Unión Europea ha dado un paso histórico con la entrada en vigor de la Ley de IA, la primera legislación global del mundo sobre inteligencia artificial. Esta ley revolucionaria, que sitúa a Europa a la vanguardia de la gobernanza de la IA, establece un marco regulador basado en el riesgo que pretende equilibrar la innovación y la protección de los derechos fundamentales. Sin embargo, la normativa también representa una manifestación más del llamado "efecto Bruselas"la tendencia de la UE a imponer sus normas a escala mundial a través de su poder de mercado, sin impulsar necesariamente la innovación tecnológica.

Mientras que EE.UU. y China lideran el desarrollo de la IA con enormes inversiones públicas y privadas (45% y 30% de las inversiones mundiales en 2024, respectivamente), Europa sólo ha atraído el 10% de las inversiones mundiales en IA. En respuesta, la UE intenta compensar su retraso tecnológico mediante la regulación, imponiendo normas que acaban afectando a todo el ecosistema mundial.

La pregunta central es: ¿está Europa creando un entorno que promueva la innovación responsable o simplemente está exportando burocracia a un sector en el que no puede competir?

La dimensión extraterritorial de la normativa europea

La Ley de IA se aplica no sólo a las empresas europeas, sino también a las que operan en el mercado europeo o cuyos sistemas de IA repercuten en los ciudadanos de la UE. Esta jurisdicción extraterritorial es especialmente evidente en las disposiciones relativas a los modelos de la GPAI, donde el considerando 106 de la Ley establece que los proveedores deben respetar los derechos de autor de la UE "independientemente de la jurisdicción en la que tenga lugar la formación de los modelos".

Este planteamiento ha sido duramente criticado por algunos observadores, que lo ven como un intento de la UE de imponer sus normas a empresas que no tienen su sede en su territorio. Según los críticos, esto podría crear una fractura en el ecosistema tecnológico mundial, ya que las empresas se verían obligadas a desarrollar versiones separadas de sus productos para el mercado europeo o a adoptar normas europeas para todos los mercados a fin de evitar costes de cumplimiento adicionales.

Las empresas tecnológicas multinacionales se encuentran, por tanto, en una posición difícil: ignorar el mercado europeo no es una opción viable, pero cumplir la Ley de IA requiere una inversión significativa y podría limitar el margen de innovación. Este efecto se ve amplificado por el ambicioso calendario de aplicación y la incertidumbre interpretativa de muchas disposiciones.

Calendario de aplicación y marco reglamentario

La Ley de AI entró en vigor el 1 de agosto de 2024, pero su aplicación seguirá un calendario escalonado:

  • 2 de febrero de 2025: entrada en vigor de la prohibición de sistemas de IA que entrañen riesgos inaceptables (como la puntuación social gubernamental) y obligaciones de alfabetización en materia de IA.
  • 2 de mayo de 2025: fecha límite para finalizar el Código de Conducta para los modelos de IA de propósito general (GPAI)
  • 2 de agosto de 2025: Aplicación de las normas sobre modelos de IA de propósito general, gobernanza y autoridades de información
  • 2 de agosto de 2026: Plena aplicación de las disposiciones sobre sistemas de alto riesgo y obligaciones de transparencia.
  • 2 de agosto de 2027: Aplicación de normas para sistemas de alto riesgo sujetos a la legislación sobre seguridad de los productos.

El reglamento adopta un enfoque basado en el riesgo, clasificando los sistemas de IA en cuatro categorías: riesgo inaceptable (prohibidos), riesgo alto (sujetos a requisitos estrictos), riesgo limitado (con obligaciones de transparencia) y riesgo mínimo o nulo (uso libre). Esta clasificación determina las obligaciones específicas para desarrolladores, proveedores y usuarios.

Las nuevas disposiciones sobre transparencia: ¿obstáculo para la innovación?

Una de las innovaciones más significativas de la Ley de IA se refiere a las obligaciones de transparencia, que pretenden abordar la naturaleza de "caja negra".caja negrade los sistemas de IA". Estas obligaciones incluyen:

  • Obligación de que los proveedores de modelos GPAI publiquen un "resumen suficientemente detallado" de los datos de formación, para facilitar el control por parte de los titulares de derechos de autor y otras partes interesadas.
  • La necesidad de que los sistemas que interactúan con humanos informen a los usuarios de que se están comunicando con un sistema de IA.
  • Obligación de etiquetar claramente los contenidos generados o modificados por IA (como los deepfakes).
  • La aplicación de una documentación técnica exhaustiva para los sistemas de alto riesgo

Estos requisitos, aunque concebidos para proteger los derechos de los ciudadanos, podrían suponer una carga importante para las empresas, sobre todo para las nuevas empresas y PYME innovadoras. La necesidad de documentar detalladamente los procesos de desarrollo, los datos de formación y la lógica de toma de decisiones podría ralentizar los ciclos de innovación y aumentar los costes de desarrollo, lo que situaría a las empresas europeas en desventaja frente a competidores de otras regiones con normativas menos estrictas.

Casos prácticos: la evasión en la práctica

Calificación crediticia y procesos automatizados de toma de decisiones

La sentencia en el asunto C-203/22 pone de relieve cómo las empresas se resisten inicialmente a los mandatos de transparencia. El demandado, un proveedor de telecomunicaciones, alegó que revelar la lógica de su algoritmo de calificación crediticia revelaría secretos comerciales, poniendo en peligro su ventaja competitiva.6 . El TJUE rechazó este argumento, afirmando que el artículo 22 del RGPD da derecho a los particulares a una explicación de los "criterios y la lógica" que subyacen a las decisiones automatizadas, aunque se trate de decisiones simplificadas.6 .

Inteligencia artificial generativa y evasión de derechos de autor

Según el sistema de dos niveles de la Ley de IA, la mayoría de los modelos generativos de IA entran en el nivel 1, que exige el cumplimiento de los derechos de autor de la UE y resúmenes de los datos de entrenamiento.2 . Para evitar reclamaciones por infracción de derechos de autor, empresas como OpenAI han pasado a utilizar datos resumidos o contenidos con licencia, pero persisten las lagunas en la documentación.

Consecuencias para los derechos de autor: Europa establece la ley a escala mundial

La Ley de IA contiene disposiciones específicas sobre derechos de autor que amplían la influencia reguladora de la UE mucho más allá de sus fronteras. Los proveedores de modelos GPAI deben:

  • Respetar la reserva de derechos establecida por la Directiva del Mercado Único Digital (2019/790).
  • Proporcionar un resumen detallado del contenido utilizado para la formación, equilibrando la necesidad de proteger los secretos comerciales con la necesidad de permitir a los titulares de derechos de autor hacer valer sus derechos.

El considerando 106 de la Ley de AI establece que los proveedores deben respetar la legislación de la UE en materia de derechos de autor, "independientemente de la jurisdicción en la que tenga lugar la formación de modelos". Este enfoque extraterritorial plantea dudas sobre la compatibilidad con los principios de territorialidad de la legislación sobre derechos de autor y podría crear conflictos normativos con otras jurisdicciones.

Estrategias empresariales: ¿evasión o cumplimiento del "efecto Bruselas"?

Para las empresas tecnológicas mundiales, la Ley de IA plantea una elección estratégica fundamental: ¿adaptarse al "efecto Bruselas" y cumplir las normas europeas a escala mundial, o desarrollar enfoques diferenciados para los distintos mercados? Han surgido varias estrategias:

Estrategias de evasión y mitigación

  1. El escudo de los secretos comerciales: Muchas empresas intentan limitar la divulgación invocando la protección de los secretos comerciales de la Directiva de la UE sobre secretos comerciales. Las empresas argumentan que la divulgación detallada de los datos de formación o de las arquitecturas de los modelos expondría información sujeta a derechos de propiedad, lo que socavaría su competitividad. Este planteamiento confunde el requisito de la Ley de un resumen de los datos con la divulgación completa.
  2. Complejidad técnica como defensa: La naturaleza intrínsecamente compleja de los sistemas modernos de IA ofrece otra vía de mitigación. Las empresas elaboran resúmenes técnicamente conformes pero excesivamente verbales o llenos de jerga que cumplen formalmente los requisitos legales sin permitir un examen significativo. Por ejemplo, un resumen de datos de formación puede enumerar amplias categorías de datos (por ejemplo, "textos disponibles públicamente") sin especificar fuentes, proporciones o métodos concretos.
  3. La laguna de la autoevaluación: Las enmiendas al artículo 6 de la Ley de AI introducen un mecanismo de autoevaluación que permite a los desarrolladores eximir a sus sistemas de la categorización de alto riesgo si consideran que los riesgos son "insignificantes". Esta laguna concede a las empresas autoridad unilateral para eludir las estrictas obligaciones de cumplimiento.
  4. La Ley de IA delega su aplicación en las autoridades nacionales de vigilancia del mercado, lo que puede dar lugar a disparidades en cuanto a rigor y competencia. Algunas empresas están ubicando estratégicamente sus operaciones europeas en Estados miembros con enfoques de aplicación más laxos o menos recursos de aplicación.

El "modelo dual" como respuesta al efecto Bruselas

Algunas grandes empresas tecnológicas están desarrollando un "modelo dual" de funcionamiento:

  1. Versiones "conformes a la UE" de sus productos de IA con funciones limitadas pero plenamente conformes con la Ley de IA.
  2. Versiones "globales" más avanzadas disponibles en mercados menos regulados

Este planteamiento, aunque costoso, permite mantener una presencia europea en el mercado sin comprometer la innovación mundial. Sin embargo, esta fragmentación podría provocar un aumento de la brecha tecnológica, ya que los usuarios europeos tendrían acceso a tecnologías menos avanzadas que los de otras regiones.

La incertidumbre normativa como obstáculo a la innovación europea

La Ley Europea de IA representa un punto de inflexión en la regulación de la IA, pero su complejidad y ambigüedades de interpretación generan un clima de incertidumbre que podría afectar negativamente a la innovación y la inversión en el sector. Las empresas se enfrentan a varios retos:

La incertidumbre normativa como riesgo empresarial

El cambiante panorama normativo representa un riesgo importante para las empresas. La interpretación de conceptos clave como "resumen suficientemente detallado" o la clasificación de los sistemas de "alto riesgo" sigue siendo ambigua. Esta incertidumbre podría dar lugar a:

  1. Costes de cumplimiento impredecibles: las empresas tienen que asignar importantes recursos al cumplimiento sin tener plena certeza sobre los requisitos finales.
  2. Estrategias de mercado prudentes: La incertidumbre normativa podría dar lugar a decisiones de inversión más conservadoras y a retrasos en el desarrollo de nuevas tecnologías, sobre todo en Europa.
  3. Fragmentación del mercado digital europeo: la desigual interpretación de las normas entre los distintos Estados miembros corre el riesgo de crear un mosaico normativo difícil de navegar para las empresas.
  4. Competencia mundial asimétrica: las empresas europeas pueden verse sometidas a limitaciones más estrictas que sus competidoras de otras regiones, lo que afectará a su competitividad mundial.

Brecha de innovación y soberanía tecnológica

El debate sobre el "efecto Bruselas" se inscribe en el contexto más amplio de la soberanía tecnológica europea. La UE se encuentra en la difícil tesitura de tener que equilibrar la necesidad de fomentar la innovación interna con la de regular las tecnologías desarrolladas principalmente por agentes no europeos.

En 2024, las empresas europeas atrajeron solo el 10% de la inversión mundial en IA, mientras que Estados Unidos y China dominaban el sector con una combinación de inversión pública y privada masiva, políticas favorables a la innovación y acceso a grandes datos. Europa, con su fragmentación lingüística, cultural y normativa, lucha por generar "campeones" tecnológicos capaces de competir a escala mundial.

Los críticos sostienen que el planteamiento europeo centrado en la regulación corre el riesgo de ahogar aún más la innovación y disuadir la inversión, mientras que los partidarios creen que la creación de un marco regulador fiable puede estimular realmente el desarrollo de una IA ética y segura "por diseño", creando una ventaja competitiva a largo plazo.

Conclusión: ¿regulación sin innovación?

El "efecto Bruselas" de la Ley de Inteligencia Artificial pone de manifiesto una tensión fundamental en el enfoque europeo de la tecnología: la capacidad de establecer normas mundiales a través de la regulación no va acompañada del correspondiente liderazgo en innovación tecnológica. Esta asimetría plantea dudas sobre la sostenibilidad a largo plazo de este enfoque.

Si Europa sigue regulando tecnologías que no desarrolla, corre el riesgo de encontrarse en una posición de creciente dependencia tecnológica, en la que sus normas podrían ser cada vez menos pertinentes en un ecosistema mundial en rápida evolución. Además, las empresas no europeas podrían retirarse progresivamente del mercado europeo u ofrecer allí versiones limitadas de sus productos, creando una "Europa fortaleza digital" cada vez más aislada del progreso mundial.

Por otra parte, si la UE pudiera equilibrar su enfoque regulador con una estrategia eficaz de fomento de la innovación, podría definir eficazmente una "tercera vía" entre el capitalismo estadounidense y el control estatal chino, situando los derechos humanos y los valores democráticos en el centro del desarrollo tecnológico. Vastos programas dirían en Francia.

El futuro de la IA en Europa dependerá no sólo de la eficacia de la Ley de IA para proteger los derechos fundamentales, sino también de la capacidad de Europa para acompañar la regulación con una inversión adecuada en innovación y simplificar el marco regulador para hacerlo menos opresivo. De lo contrario, Europa corre el riesgo de encontrarse en una situación paradójica: líder mundial en regulación de la IA, pero marginal en su desarrollo y aplicación.

Referencias y fuentes

  1. Comisión Europea. (2024). "Reglamento (UE) 2024/1689 por el que se establecen normas armonizadas sobre inteligencia artificial". Diario Oficial de la Unión Europea.
  2. Oficina Europea de Inteligencia Artificial. (2025, abril). Directrices preliminares sobre las obligaciones de los proveedores de modelos GPAI". Comisión Europea.
  3. Tribunal de Justicia de la Unión Europea. (2025, febrero). Sentencia en el asunto C-203/22 Dun & Bradstreet Austria. TJUE.
  4. Warso, Z., & Gahntz, M. (2024, diciembre). How the EU AI Act Can Increase Transparency Around AI Training Data". TechPolicy.Press.. https://www.techpolicy.press/how-the-eu-ai-act-can-increase-transparency-around-ai-training-data/
  5. Wachter, S. (2024). Limitations and Loopholes in the EU AI Act and AI Liability Directives". Yale Journal of Law & Technology, 26(3). https://yjolt.org/limitations-and-loopholes-eu-ai-act-and-ai-liability-directives-what-means-european-union-united
  6. Derechos Digitales Europeos (EDRi). (2023, septiembre). Los legisladores de la UE deben colmar la peligrosa laguna de la Ley sobre la IA". https://www.amnesty.eu/news/eu-legislators-must-close-dangerous-loophole-in-ai-act/.
  7. Instituto del Futuro de la Vida. (2025). Comprobador del cumplimiento de la Ley de AI'. https://artificialintelligenceact.eu/assessment/eu-ai-act-compliance-checker/
  8. Dumont, D. (2025, febrero). Understanding the AI Act and its compliance challenges'. Help Net Security. https://www.helpnetsecurity.com/2025/02/28/david-dumont-hunton-andrews-kurth-eu-ai-act-compliance/
  9. Guadamuz, A. (2025). La Ley de Inteligencia Artificial de la UE y los derechos de autor'. Revista Mundial de la Propiedad Intelectual. https://onlinelibrary.wiley.com/doi/full/10.1111/jwip.12330
  10. White & Case LLP. (2024, julio). La tan esperada Ley de AI de la UE se convierte en ley tras su publicación en el Diario Oficial de la UE". https://www.whitecase.com/insight-alert/long-awaited-eu-ai-act-becomes-law-after-publication-eus-official-journal.

Recursos para el crecimiento empresarial