Newsletter

La paradoja de la creatividad: inteligencia artificial, derechos de autor y futuro de la humanidad

"No me siento halagado. Siento que me han robado algo que he construido durante años" - Greg Rutkowski, cuyo nombre aparece en 1,2 millones de prompts de Stable Diffusion. El "estilo Ghibli" revela la verdadera diferencia: Van Gogh entendía los principios estéticos japoneses, la IA extrae correlaciones estadísticas entre píxeles. Stanford demuestra que los modelos regeneran imágenes casi idénticas el 3% de las veces. No es inspiración, es memorización. Más de 250.000 artistas han adoptado Glaze y Nightshade para defenderse.

Creatividad humana frente a creatividad artificial: dónde radica realmente la diferencia (y por qué el estilo Ghibli nos enseña algo)

El debate sobre la inteligencia artificial y los derechos de autor se ha intensificado drásticamente en 2024-2025. Ya no se trata de discusiones teóricas: The New York Times demandó a OpenAI por infracción de derechos de autor (diciembre de 2023), Getty Images demandó a Stability AI y miles de artistas presentaron demandas colectivas. Las empresas de IA responden que sus sistemas "aprenden" igual que los humanos, pero ¿es realmente así?

La creatividad humana siempre se ha desarrollado a través de conexiones: Shakespeare se inspiró en crónicas históricas y cuentos populares, Van Gogh estudió grabados japoneses, los Beatles empezaron tocando rock americano. Los artistas siempre reinterpretan obras anteriores. La inteligencia artificial, dicen las empresas tecnológicas, hace lo mismo. Pero el caso del "estilo Ghibli" revela lo simplista que es esta narrativa.

El caso Ghibli: cuando el estilo se convierte en controversia

Teclea "estilo Ghibli" en Midjourney o DALL-E y obtendrás imágenes sorprendentemente parecidas a las obras maestras de Hayao Miyazaki: colores pastel, nubes esponjosas, paisajes de ensueño, personajes con grandes ojos. Es técnicamente impresionante. También es profundamente problemático.

Studio Ghibli tardó décadas en desarrollar esa estética distintiva: elecciones precisas de la paleta de colores, técnicas de animación tradicionales y una filosofía artística arraigada en la cultura japonesa y en la visión personal de Miyazaki. Cuando un modelo de IA reproduce ese "estilo" en segundos, ¿está realmente "aprendiendo" como Miyazaki aprendió de la animación de Disney y del manga japonés? ¿O simplemente recombina patrones visuales extraídos de miles de fotogramas de Ghibli sin permiso?

La diferencia no es filosófica, sino jurídica y económica. Según un análisis de Stanford publicado en arXiv (Carlini et al., 2023), los modelos de difusión como Stable Diffusion pueden regenerar imágenes casi idénticas a partir del conjunto de entrenamiento en aproximadamente el 3% de los casos cuando se les solicitan indicaciones específicas. No es "inspiración", es almacenamiento y reproducción.

El artista digital polaco Greg Rutkowski descubrió que su nombre aparecía en 1,2 millones de prompts en Stable Diffusion, convirtiéndose involuntariamente en uno de los "estilos" más solicitados sin dar nunca su consentimiento ni recibir compensación alguna. Como declaró a MIT Technology Review: "No me siento halagado. Siento que me han robado algo que he construido durante años.

La polémica de la educación: las cifras de 2024-2025

El entrenamiento de la IA ha alcanzado escalas sin precedentes. LAION-5B, uno de los conjuntos de datos más utilizados para modelos de imagen, contiene 5.850 millones de pares imagen-texto recogidos de Internet, incluidas obras protegidas por derechos de autor. GPT-4 se entrenó con enormes porciones de Internet, incluidos artículos de pago, libros y código de software propietario.

Acciones judiciales importantes en curso:

  • New York Times contra OpenAI/Microsoft (diciembre de 2023): Demanda multimillonaria por daños y perjuicios, acusación de entrenar GPT sobre décadas de artículos protegidos
  • Getty Images contra Stability AI (febrero de 2023): Acusada de utilizar más de 12 millones de imágenes de Getty sin licencia
  • Demanda colectiva de artistas contra Stability AI/Midjourney/DeviantArt (enero de 2023): miles de artistas demandan por infracción sistemática de derechos de autor.
  • Universal Music contra Suno y Udio (junio de 2024): Plataformas de generación de música acusadas de entrenarse en catálogos protegidos

Las empresas de IA defienden esta práctica invocando el "uso justo" según la legislación estadounidense: alegan que la formación es "transformadora" y no sustituye al mercado original. Pero varios tribunales cuestionan esta interpretación.

La juez Katherine Forrest, en el caso Getty contra Stability AI, denegó la moción de desestimación en enero de 2024, permitiendo que el caso siguiera adelante: "La cuestión de si el entrenamiento de modelos de IA constituye un uso justo es compleja y requiere un examen exhaustivo de los hechos. Traducción: las empresas de IA no pueden limitarse a invocar el uso legítimo y ya está.

Acuerdos comerciales: surge la solución de mercado

Ante la presión legal, las empresas de IA empezaron a negociar licencias. OpenAI ha firmado acuerdos con:

  • Associated Press (julio de 2023): Acceso al archivo de noticias a cambio de una licencia
  • Axel Springer (diciembre de 2023): Acuerdo para utilizar contenidos de Politico, Business Insider
  • Financial Times (abril de 2024): Licencia de contenidos para la formación
  • News Corp (mayo de 2024): 250 millones de dólares por 5 años, acceso a Wall Street Journal, Barron's, New York Post...

Google firmó acuerdos similares con Reddit, Stack Overflow y varias editoriales. Anthropic ha negociado con editoriales el uso de libros.

Pero estos acuerdos sólo cubren a las grandes editoriales con poder de negociación. Millones de creadores individuales -artistas, fotógrafos, escritores autónomos- siguen sin recibir compensación por obras utilizadas en formaciones ya terminadas.

Aprendizaje humano frente a aprendizaje automático: la verdadera diferencia (Más allá de la estadística)

La idea de que "la IA aprende como los humanos" es técnicamente engañosa. Veamos las diferencias fundamentales:

Escala y velocidad: un artista humano estudia quizá cientos o miles de obras a lo largo de su vida. GPT-4 se ha entrenado con billones de palabras. Stable Diffusion en miles de millones de imágenes. La escala es incomparable y supera cualquier definición razonable de "inspiración".

Comprensión semántica: cuando Van Gogh estudió los grabados japoneses, no copió mecánicamente los patrones visuales, sino que comprendió los principios estéticos subyacentes (uso del espacio negativo, composición asimétrica, énfasis en la naturaleza) y los reinterpretó a través de su visión postimpresionista europea. Sus obras son síntesis culturales conscientes.

Los modelos de IA no "comprenden" en el sentido humano. Como explica Melanie Mitchell, profesora del Santa Fe Institute, en su "Artificial Intelligence: A Guide for Thinking Humans": "Los sistemas de aprendizaje profundo destacan en el reconocimiento de patrones, pero carecen de comprensión causal, razonamiento abstracto o modelos mentales del mundo. La difusión estable no "entiende" lo que hace distintivo a Ghibli, sino que extrae correlaciones estadísticas entre millones de píxeles etiquetados como "estilo Ghibli".

Intencionalidad creativa: Los artistas humanos toman decisiones creativas intencionadas basadas en su visión personal, el mensaje que quieren comunicar, las emociones que quieren evocar. Miyazaki incorpora temas ecologistas, pacifistas y feministas en sus películas: decisiones morales y artísticas conscientes.

La IA genera basándose en probabilidades estadísticas: "dada la indicación X y el conjunto de entrenamiento Y, ¿qué configuración de píxeles es más probable?". No hay intencionalidad, ni mensaje, ni visión. Como escribió Ted Chiang en The New Yorker: "ChatGPT es un jpeg borroso de la web", una compresión con pérdidas que pierde exactamente las cualidades que hacen valioso el contenido original.

Transformación frente a recombinación: Pablo Picasso estudió las máscaras africanas pero creó el cubismo, un movimiento artístico totalmente nuevo que reinventó la representación espacial en la pintura. La transformación fue radical y original.

Los modelos generativos de IA funcionan por interpolación en el espacio latente: recombinan elementos del conjunto de entrenamiento en nuevas configuraciones, pero siguen vinculados a la distribución estadística de los datos con los que han sido entrenados. No pueden inventar estéticas auténticamente nuevas que violen las regularidades estadísticas aprendidas. Como demuestra la investigación del MIT (Shumailov et al., 2023), los modelos entrenados repetidamente con resultados anteriores de IA degeneran progresivamente, fenómeno denominado "colapso del modelo".

La paradoja de la "originalidad" de la IA

He aquí la paradoja central: la IA puede generar resultados que parecen originales (ningún ser humano ha visto antes esa imagen específica al estilo Ghibli) pero que son estadísticamente derivados (son interpolaciones de patrones existentes). Es una forma superficial de originalidad sin innovación fundamental.

Esto tiene profundas implicaciones. Como dijo el filósofo John Searle en su famoso "argumento de la habitación china", simular un proceso cognitivo no es lo mismo que poseerlo. La IA puede simular la creatividad sin ser creativa en el sentido humano del término.

Nuevas soluciones técnicas y normativas

Ante la polémica, se están desarrollando diversas soluciones:

Herramientas de protección para artistas:

  • Glaze (Universidad de Chicago): Software que aplica perturbaciones imperceptibles a las imágenes, "engañando" a los modelos de IA que intentan aprender el estilo.
  • Nightshade (mismo equipo): versión ofensiva que "envenena" los datos de entrenamiento, corrompiendo los modelos que los utilizan sin permiso.
  • Más de 250.000 artistas adoptaron estas herramientas en el primer año

Registros de exclusión:

  • Have I Been Trained (Spawning AI): base de datos que permite a los artistas comprobar si sus obras están en LAION y otros conjuntos de datos, con mecanismo de exclusión voluntaria.
  • Algunos modelos más recientes respetan estas cláusulas de exclusión (Stability AI ha anunciado su cumplimiento parcial)

Marco retributivo:

  • Spawning AI Licence: sistema de microlicencias para compensar a los artistas cuando las obras se utilizan en el entrenamiento.
  • Aún en fase experimental, no se ha generalizado

Normativa gubernamental:

La Ley de Inteligencia Artificial de la UE (que entrará en vigor en agosto de 2024) obliga a los proveedores de modelos generativos de IA a publicar resúmenes detallados de los datos de entrenamiento utilizados protegidos por derechos de autor. Es el primer intento normativo de imponer transparencia.

La Ley ELVIS de Tennessee (marzo de 2024) protege específicamente a los artistas intérpretes o ejecutantes de voz e imagen contra el uso no autorizado en los primeros estados de EE.UU. con legislación específica para las falsificaciones visuales y de voz profunda.

Entre las propuestas al Congreso de EE.UU. figuran la solicitud explícita de inclusión voluntaria de obras protegidas por derechos de autor (en lugar de la exclusión voluntaria) y la creación de registros públicos de conjuntos de datos de formación.

El futuro de la creatividad: ¿Hibridación o sustitución?

Dos visiones del futuro se enfrentan:

Visión optimista (empresas de IA): la IA es una herramienta que amplifica la creatividad humana, como Photoshop o los sintetizadores musicales. Los artistas utilizarán la IA para acelerar los flujos de trabajo, explorar variaciones y superar bloqueos creativos. Surgirán formas de arte híbridas en las que los humanos guiarán la visión y la IA se encargará de las partes técnicas.

Ya existen ejemplos concretos: la película "The Frost" (2023) utilizó IA para generar fondos y texturas, con artistas humanos guiando la dirección artística. Los músicos utilizan Suno y Udio para generar pistas de acompañamiento sobre las que improvisar. Los escritores utilizan GPT como "patito de goma" para discutir ideas narrativas.

Opinión pesimista (muchos creadores): La IA mercantilizará la creatividad, erosionando el valor económico del trabajo creativo hasta que sólo sobrevivan las élites con habilidades excepcionales. La "creatividad media" será sustituida por generadores baratos, destruyendo la clase media creativa, al igual que la automatización industrial eliminó a los artesanos en el siglo XIX.

Los datos preliminares respaldan esta preocupación: en plataformas de freelance como Fiverr, las solicitudes de ilustradores y redactores publicitarios cayeron un 21 % en 2023 (datos de Fiverr del cuarto trimestre de 2023), mientras que las ofertas de "generación de arte por IA" se dispararon. Greg Rutkowski ha visto caer los encargos directos un 40% desde que su estilo se hizo popular en Stable Diffusion.

La verdad probablemente se encuentre en algún punto intermedio: algunas formas de trabajo creativo se automatizarán (ilustraciones genéricas de stock, marketing de copia básica), mientras que la creatividad altamente original, conceptual y culturalmente arraigada seguirá siendo dominio humano.

Reflexiones finales: la autenticidad en la era de la imitación perfecta

La distinción entre contenidos humanos y de IA será cada vez más difícil. Ya hoy, sin marcas de agua ni divulgación, suele ser imposible distinguir el texto GPT-4 del texto humano, o las imágenes Midjourney de las fotografías. Cuando Sora (el generador de vídeo de OpenAI) se haga público, la distinción se extenderá al vídeo.

Esto plantea profundas cuestiones sobre la autenticidad. Si una imagen al estilo Ghibli generada por IA evoca las mismas emociones que el original, ¿tiene el mismo valor? El filósofo Walter Benjamin, en su obra "La obra de arte en la era de su reproductibilidad técnica" (1935), afirmaba que la reproductibilidad mecánica erosiona el "aura" de la obra original, su singularidad espaciotemporal y su autenticidad.

La IA generativa lleva este argumento al extremo: no reproduce obras existentes, sino que genera infinitas variaciones que simulan el original sin serlo. Es el simulacro baudrillardiano: la copia sin el original.

Sin embargo, hay algo irreductiblemente humano en el acto creativo consciente: el artista que elige cada pincelada sabiendo lo que quiere comunicar, el escritor que elabora cada frase para evocar emociones específicas, el compositor que construye tensión y resolución con intencionalidad. La IA puede simular el resultado, pero no el proceso, y quizá sea en el proceso donde reside el auténtico valor de la creatividad.

Como escribió Studio Ghibli en un comunicado (noviembre de 2023): "El alma de nuestras películas no reside en el estilo visual que puede copiarse, sino en las decisiones creativas que tomamos fotograma a fotograma para ponerlas al servicio de la historia que queremos contar. Eso no se puede automatizar".

El valor del arte, en última instancia, deriva de su capacidad para conectar profundamente con la experiencia humana, para hacernos sentir comprendidos, interpelados, transformados. Sigue siendo una incógnita si la IA puede conseguirlo. Pero mientras el arte esté hecho por humanos para humanos, hablando de la condición humana, conservará algo que ningún algoritmo puede reproducir: la autenticidad de la experiencia vivida traducida en forma estética.

Fuentes:

  • Carlini, Nicholas et al. - "Extracción de datos de entrenamiento de modelos de difusión", arXiv:2301.13188 (2023)
  • Mitchell, Melanie - 'Inteligencia artificial: una guía para humanos pensantes' (2019)
  • Chiang, Ted - "ChatGPT es un JPEG borroso de la Web", The New Yorker (febrero de 2023)
  • Shumailov, Ilia et al. - 'The Curse of Recursion: Training on Generated Data Makes Models Forget', arXiv:2305.17493 (2023)
  • MIT Technology Review - "Este artista está dominando el arte generado por IA. Y no está contento con ello" (septiembre de 2022)
  • Ley de AI de la UE - Reglamento (UE) 2024/1689
  • Benjamin, Walter - "La obra de arte en la era de su reproductibilidad técnica" (1935)
  • Demandas por registros públicos: NYT contra OpenAI, Getty contra Stability AI
  • Fiverr Q4 2023 Informe de ganancias