La inteligencia artificial está reescribiendo las reglas del mundo editorial a una velocidad sin precedentes: mientras Axel Springer despide a toda la redacción italiana de Upday para sustituirla por ChatGPT, publicaciones como Il Foglio registran un aumento del 60 % en las ventas gracias a un suplemento escrito íntegramente por IA. Pero entre bastidores surge una verdad más compleja: muchas «soluciones revolucionarias de IA» ocultan realidades operativas que oscilan entre la innovación genuina y la manipulación sistemática del ecosistema informativo.
El fenómeno, al que los investigadores han bautizado irónicamente como «fauxtomation» (es decir, pseudoautomatización), revela cómo la industria tecnológica suele utilizar automatización de baja calidad haciéndola pasar por inteligencia artificial avanzada.
La investigación de NewsGuard refleja un fenómeno explosivo: más de 1200 sitios web de pseudoinformación automatizada repartidos en 16 idiomas. Un ecosistema que se aprovecha de un mercado destinado a cuadruplicarse en seis años, pasando de los 26 000 millones de dólares actuales a casi 100 000 millones en 2030.
¿Cuál es la diferencia entre quienes prosperan y quienes fracasan? La capacidad de transformar la IA de una amenaza existencial en una ventaja competitiva a través de una nueva competencia clave: saber qué preguntarle a la máquina, cuando la máquina es realmente una máquina.
El bienio 2024-2025 marcó un punto de inflexión decisivo en el sector editorial. Por un lado, oleadas de despidos afectaron a redacciones históricas: Business Insider recortó el 21 % de su plantilla, The Messenger cerró dejando sin trabajo a 300 periodistas, mientras que CNN y Los Angeles Times eliminaron cientos de puestos. Los puestos más afectados son los de redactor publicitario, editor junior y traductor, todas ellas funciones fácilmente automatizables.
Por otro lado, está surgiendo un nuevo ecosistema de oportunidades. The Washington Post ha creado el primer puesto de «Editor sénior de estrategia e innovación en IA», mientras que Newsweek ha lanzado un equipo dedicado a la IA para las noticias de última hora que ha contribuido a alcanzar los 130 millones de sesiones mensuales. El mercado laboral registra un aumento del 124 % en las ofertas de puestos de IA en el sector de los medios de comunicación, con salarios que pueden alcanzar los 335 000 dólares anuales para los ingenieros sénior de prompts.
La clave de esta transformación reside en el enfoque estratégico. Thomson Reuters invierte más de 100 millones de dólares al año en IA, utilizando diferentes modelos para tareas específicas: OpenAI para la generación de contenidos, Google Gemini para el análisis de documentos legales complejos y Anthropic Claude para flujos de trabajo de alta sensibilidad. Este enfoque multimarca ha permitido a la empresa optimizar los costes y el rendimiento, manteniendo el control sobre la calidad editorial.
«Saber qué preguntarle a la máquina» no es un eslogan, sino una competencia profesional emergente que está redefiniendo la profesión periodística. Una encuesta realizada a 134 profesionales de la información en Estados Unidos, Reino Unido y Alemania revela que la verificación de contenidos de IA «a veces requiere más tiempo que la redacción manual». Este dato aparentemente paradójico esconde una verdad fundamental: la IA no sustituye al periodista, sino que requiere nuevas formas de supervisión editorial.
Las competencias tradicionales no desaparecen, sino que evolucionan hacia formas más sofisticadas. Las relaciones con las fuentes, el criterio editorial y la contextualización siguen siendo insustituibles. Como subraya un director editorial británico: «No quiero ser BuzzFeed o CNET, que publican basura. Tenemos que hacer las cosas bien».
Formular preguntas eficaces a la inteligencia artificial va más allá de la simple solicitud de información. Requiere comprender los sesgos algorítmicos, la capacidad de estructurar solicitudes complejas y la habilidad de iterar para obtener resultados cada vez más precisos. Una conversación productiva con la IA debe: contextualizar proporcionando los antecedentes necesarios, especificar el formato deseado, establecer parámetros éticos exigiendo transparencia en las fuentes y calibrar el tono adaptándolo al público objetivo.
Paradójicamente, la era de la IA ha hecho que la verificación de los hechos sea aún más crucial. Los periodistas están desarrollando nuevas metodologías para la verificación asistida, en la que la inteligencia artificial se convierte tanto en objeto como en herramienta de verificación. El reto ya no es solo distinguir lo verdadero de lo falso, sino también evaluar la calidad de los resúmenes automáticos, identificar las omisiones significativas y reconocer cuándo la IA introduce sesgos sutiles en la narración.
El uso responsable de la inteligencia artificial implica una reflexión ética constante. La transparencia hacia el público sobre el uso de la IA se convierte en un pilar de la credibilidad editorial. En este escenario surge una nueva figura híbrida: el periodista-orquestador, capaz de dirigir una sinfonía de fuentes humanas y digitales para producir información de mayor calidad.
La historia de AdVon Commerce ilustra perfectamente la evolución de las tecnologías desde prácticas controvertidas hasta soluciones empresariales legítimas. En el centro de los escándalos de Sports Illustrated y USA Today, AdVon convirtió el «periodismo automatizado» en un negocio millonario. Las cifras eran impresionantes: 90 000 artículos publicados a través de su sistema para cientos de periódicos, utilizando periodistas completamente inventados con fotos de perfil generadas por IA.
Un vídeo de formación interno obtenido por Futurism revelaba la realidad operativa: empleados que «generaban un artículo escrito por IA y lo pulían». 12 formas en que los periodistas utilizan las herramientas de IA en la redacción - Twipe. La estrategia era sencilla pero eficaz: utilizar inicialmente contratistas para escribir reseñas de productos y luego utilizar este material para entrenar modelos lingüísticos, evolucionando hacia la automatización. Es el ejemplo de la transición del trabajo humano a la «IA real», en la que los trabajadores humanos entrenan a las máquinas en un proceso de sustitución gradual.
AdVon ahora forma parte de Flywheel Digital (adquirida por Omnicom) y se presenta como proveedor de «soluciones de SEO y contenido centrado en el usuario impulsadas por IA» para empresas de la lista Fortune 500. El paso de la controvertida producción masiva de contenidos para medios de comunicación a las herramientas empresariales para el comercio electrónico representa una evolución típica de las startups tecnológicas: misma tecnología, mercados diferentes, ética diferente.
El caso AdVon también demuestra que las mismas tecnologías pueden servir simultáneamente a mercados legítimos (comercio electrónico) y prácticas problemáticas (periodismo falso). La evolución del modelo, de granja de contenidos a software empresarial, representa cómo la innovación tecnológica puede encontrar aplicaciones más éticas con el tiempo.
El caso más emblemático de la complejidad de las grandes empresas tecnológicas surge de la cronología: el 5 de marzo de 2024, Google anuncia medidas contra el «abuso de contenido a gran escala»; el 1 de abril de 2024, Google Cloud anuncia una asociación con AdVon para lanzar AdVonAI. Cuando Futurism pidió aclaraciones, Google respondió con un silencio total.
La explicación más probable reside en la estructura organizativa: Google Cloud opera como una división independiente con sus propios objetivos comerciales, y AdVonAI se posiciona como una herramienta B2B para minoristas como Target y Walmart, no para la producción masiva de contenidos periodísticos. Como señala Karl Bode, de Techdirt: «Los ejecutivos incompetentes siguen tratando la IA no como una forma de mejorar el periodismo, sino como un atajo para crear una máquina automatizada de captación publicitaria».
CNET proporcionó uno de los primeros ejemplos a gran escala de cómo NO implementar la IA en el periodismo, convirtiéndose en un caso de estudio perfecto sobre los riesgos de la «fauxtomation». El destacado sitio web tecnológico utilizó un «motor de IA interno» para escribir 77 artículos publicados desde noviembre de 2022, lo que representa aproximadamente el 1 % del contenido total publicado en ese mismo periodo.
CNET tuvo que corregir errores en 41 de las 77 historias generadas por IA, más de la mitad del contenido automatizado. Un artículo sobre intereses compuestos afirmaba que los depósitos de 10 000 dólares con un interés del 3 % anual generarían 10 300 dólares en lugar de 300 dólares, un error del 3333 % que habría arruinado financieramente a cualquiera que hubiera seguido el consejo.
Investigaciones posteriores también revelaron indicios de plagio estructural con artículos publicados anteriormente en otros lugares. Jeff Schatten, profesor de la Universidad Washington and Lee, tras examinar numerosos ejemplos, calificó el comportamiento del bot como «claramente» plagio. «Si un estudiante entregara un ensayo con un número comparable de similitudes con documentos existentes sin atribución, sería enviado al consejo ético estudiantil y, dada la naturaleza repetitiva del comportamiento, casi con toda seguridad sería expulsado de la universidad».
El caso de CNET revela cómo la lógica de las granjas de contenido también se ha infiltrado en publicaciones históricas. Según informa The Verge, la estrategia principal de Red Ventures (propietaria de CNET) consistía en publicar grandes cantidades de contenido, cuidadosamente diseñado para posicionarse en los primeros puestos de Google y repleto de enlaces afiliados lucrativos. CNET se había convertido en una «máquina SEO para ganar dinero potenciada por la IA».
La lección fundamental: la IA tiene una «notoria tendencia a producir contenidos sesgados, dañinos y objetivamente incorrectos», lo que requiere una supervisión humana experta, no solo una edición superficial.
Mientras tanto, está surgiendo una generación aún más sofisticada de granjas de contenido totalmente automatizadas. NewsGuard ha identificado sitios web que «operan con poco o ningún control humano y publican artículos escritos en su mayor parte o en su totalidad por bots», con nombres genéricos como iBusiness Day, Ireland Top News y Daily Time Update.
Las cifras son alarmantes: desde abril de 2023, cuando NewsGuard identificó 49 sitios web, el número se ha disparado a más de 1000 en agosto de 2024.
Dado el declive simultáneo de los medios locales auténticos en todo el mundo, las probabilidades de que un sitio web de noticias que afirma cubrir noticias locales sea falso son superiores al 50 %.
OkayNWA (Arkansas): El primer «periódico local» totalmente automatizado con «reporteros de IA» con nombres surrealistas como «Benjamin Business» y «Sammy Streets». El sitio web recopila eventos locales de Internet y los vuelve a publicar bajo identidades falsas de IA, lo que representa la evolución definitiva del modelo AdVon.
Celebritydeaths.com: Afirmó falsamente que el presidente Biden había fallecido y que la vicepresidenta Harris había asumido sus funciones. Los analistas advierten sobre la proliferación de sitios web de noticias generados por IA : un ejemplo de cómo la automatización sin control puede generar desinformación peligrosa.
Hong Kong Apple Daily: El dominio del antiguo periódico democrático ha sido adquirido por un empresario serbio y se ha llenado de contenidos generados por IA Los analistas advierten sobre la proliferación de sitios web de noticias generadas por IA tras el cierre forzoso del periódico en 2021, un caso especialmente cínico de apropiación digital.
Los sitios generados por IA no suelen tener muros de pago y no soportan los costes de contratar a periodistas reales, por lo que pueden atraer ingresos publicitarios programáticos más fácilmente. Cuidado: los sitios de «noticias» generados por IA están en auge - NewsGuard. Esto crea un círculo vicioso devastador: mientras estos sitios se llevan los ingresos publicitarios, las organizaciones periodísticas locales tienen aún más dificultades para mantenerse, lo que lleva a más recortes de personal y recursos.
NewsGuard ha descubierto que Google está detrás del 90 % de los anuncios de estos sitios web. Los analistas advierten sobre la proliferación de sitios web de noticias generados por IA. Cuando Voice of America pidió aclaraciones, Google afirmó que no podía verificar por qué NewsGuard no comparte su lista de sitios (que obviamente no compartiría, ya que es su principal activo comercial).
Los datos económicos cuentan una historia de profunda disrupción:
El impacto en los salarios es igualmente dramático. Los puestos que requieren competencias en IA ofrecen salarios hasta un 25 % más altos en Estados Unidos. Un gestor de contenidos de IA en Amazon puede ganar entre 62 000 y 95 000 dólares, mientras que los ingenieros sénior de prompts alcanzan salarios de 335 000 dólares. Por el contrario, el 58 % de los periodistas se está formando por su cuenta en IA sin ningún tipo de apoyo por parte de la empresa.
En este panorama de engaños sistémicos y automatización oculta, el experimento de Il Foglio destaca como ejemplo de transparencia radical. El periódico publicó durante todo un mes un suplemento escrito íntegramente por IA, lo que le valió un aumento del 60 % en las ventas el primer día y cobertura mediática internacional.
Claudio Cerasa, director del diario, admite abiertamente las limitaciones: «Este es uno de los casos en los que la IA funciona mal» en lo que respecta a la originalidad, pero destaca la lección fundamental: «Lo importante es comprender qué se puede hacer más, no menos».
El éxito de Il Foglio adquiere una dimensión aún más significativa cuando se compara con la realidad de las granjas de contenidos. Mientras Cerasa lleva a cabo un experimento transparente y ético, declarando a los lectores todos los aspectos del uso de la IA, miles de sitios web en todo el mundo ocultan su naturaleza automatizada tras falsas identidades periodísticas.
News Corp Australia: El modelo industrial transparente
News Corp Australia ya produce 3000 artículos de IA a la semana a través del proyecto Data Local, pero con una diferencia crucial: supervisión editorial estructurada y divulgación completa. El enfoque industrial pero transparente demuestra que la automatización puede implementarse a gran escala manteniendo los estándares éticos.
El caso de EXPRESS.de en Alemania ilustra cómo la IA puede convertirse en un auténtico socio de los periodistas. Su sistema «Klara» contribuye ahora al 11 % de los artículos y, durante los picos estacionales, representa entre el 8 % y el 12 % del tráfico total, principalmente gracias a su eficaz generación de titulares.
El impacto es cuantificable: esta colaboración entre humanos e IA ha dado lugar a un aumento significativo del 50-80 % en las tasas de clics cuando la IA selecciona artículos basados en los intereses de los usuarios. Los empleados actúan como supervisores, revisando cada artículo, verificando las fuentes y garantizando la integridad periodística.
Fabio Napoli, director digital de RCS, destaca que la empresa tiene previsto ampliar su oferta basada en la inteligencia artificial mediante el desarrollo de nuevas aplicaciones temáticas y la mejora de plataformas existentes, como L'Economia. El objetivo es utilizar la inteligencia artificial y el análisis de datos para ofrecer contenidos más personalizados, lo que garantizará que los lectores se involucren más y pasen más tiempo en las plataformas de RCS.
LaLey de IA de la UE, que entró en vigor en agosto de 2024, representa el primer intento sistemático de regular la IA a escala continental. La ley impone la obligación de etiquetar los contenidos generados por IA, sentando las bases legales para distinguir entre contenidos humanos y automatizados.
La Carta de París sobre IA y Periodismo, presidida por la premio Nobel Maria Ressa, ha definido diez principios fundamentales para una IA ética en el periodismo. El documento destaca que «la innovación tecnológica no conduce intrínsecamente al progreso: debe estar guiada por la ética».
Los principios clave incluyen: transparencia en el uso de la IA, supervisión humana obligatoria para contenidos sensibles, protección de la diversidad de fuentes y responsabilidad editorial clara. Organizaciones como la FIP y la FEP están luchando para garantizar una compensación justa por los contenidos utilizados en el entrenamiento de la IA y la transparencia algorítmica.
Entre los casos que dividen a la comunidad editorial destaca Spines, una startup israelí que ofrece servicios de publicación automatizados, reduciendo los plazos de 6-18 meses a tres semanas, con precios que oscilan entre los 1200 y los 5000 dólares, lo que permite a los autores conservar el 100 % de los derechos.
La plataforma utiliza IA para la edición, corrección, diseño de portadas y formateo, aunque asigna un gestor de proyectos humano para supervisar cada libro. Las críticas se centran en la calidad («La inteligencia artificial es notoriamente poco talentosa como escritora»), mientras que los defensores destacan la democratización del acceso a servicios que antes eran costosos.
La startup ha atraído 22,5 millones de dólares de inversores respetables y su director ejecutivo, Yehuda Niv, cuenta con una sólida trayectoria. El modelo representa la industrialización de servicios ya existentes, no necesariamente «revolucionario», pero potencialmente importante para la accesibilidad de la publicación.
Los escenarios para 2025-2030 esbozados por el proyecto «AI in Journalism Futures» oscilan entre la transformación radical y la continuidad. El escenario «Machines in the Middle» prevé que la IA se encargue esencialmente de la redacción, el procesamiento y la distribución de la mayor parte de la información periodística.
Los expertos prevén una «realidad post-enlaces» en la que los usuarios ya no visitarán los sitios web de los editores, sino que accederán a las noticias a través de agentes de IA que resumen los contenidos. Este escenario conduciría a una mayor centralización del control de la información en manos de las grandes empresas tecnológicas.
Las redacciones exitosas están adoptando modelos de «dos velocidades» que permiten la experimentación manteniendo los flujos de trabajo tradicionales. Están surgiendo estructuras «federalizadas» con equipos autónomos respaldados por infraestructuras de IA centralizadas. La clave es el equilibrio entre la eficiencia tecnológica y los valores periodísticos: precisión, equidad, responsabilidad y servicio público.
Sin embargo, de los comentarios de la comunidad editorial se desprende una verdad reconfortante: los mercados tienen anticuerpos naturales contra las estafas. Como señala un veterano del sector: «Siempre hay estafas, pero nunca he visto ninguna que haya tenido un impacto duradero».
La razón es simple pero poderosa: los algoritmos de descubrimiento (que, irónicamente, son verdadera IA) premian el compromiso y la satisfacción del lector. Las granjas de contenido pueden inundar el mercado, pero la calidad siempre sale a la luz. Los lectores no leen más allá de la primera página de contenido de baja calidad, ya sea producido por humanos o por IA.
La IA no es el futuro del periodismo, es su presente turbulento y contradictorio. La transformación en curso revela una bifurcación aún más profunda de lo que se imaginaba inicialmente: no se trata solo de la sustitución de los periodistas por máquinas, sino de la batalla entre la automatización ética y la «fauxtomation» depredadora.
El contraste entre Il Foglio y las miles de granjas de contenido automatizadas es emblemático. Por un lado, un experimento transparente que declara abiertamente el uso de la IA, invierte en supervisión humana y utiliza la tecnología para cuestionar el futuro de la profesión. Por otro lado, un sistema industrial de engaño que contamina el ecosistema informativo con contenidos de baja calidad disfrazados de periodismo auténtico.
El éxito en la era del editor de IA requiere cinco elementos fundamentales:
Las redacciones que prosperan son aquellas que, como Il Foglio, utilizan la IA para liberar a los periodistas de tareas repetitivas y les animan a centrarse en lo que las máquinas no pueden hacer: construir relaciones de confianza, contextualizar la complejidad, contar historias que lleguen al alma humana.
La paradoja es devastadora, pero también liberadora: en la era de la máxima automatización, la honestidad se convierte en revolucionaria. Saber qué pedirle a la máquina no es solo una competencia técnica, es un acto de resistencia contra un ecosistema que premia el engaño sistemático.
Pero, como demuestran la sabiduría de la comunidad editorial y la resiliencia de los mercados, los lectores saben distinguir. Las redacciones italianas se enfrentan a una elección que va más allá de la tecnología: pueden unirse a la carrera hacia el fondo de las granjas de contenido automatizadas, o pueden seguir el ejemplo de Il Foglio y utilizar la transparencia como arma competitiva.
En esta era de «fauxtomation», el periodismo auténtico se convierte en la última forma de automatización que ninguna máquina podrá replicar jamás: la automatización de la confianza. Y la confianza, como siempre ha sabido todo buen periodista, se gana historia a historia, lector a lector, verdad a verdad.
La diferencia entre sobrevivir y prosperar no radica en adoptar la IA, sino en la capacidad de mantener la integridad mientras todos a tu alrededor fingen que su automatización es más sofisticada de lo que realmente es. El futuro pertenece a quienes saben convertir la tecnología en una herramienta de verdad, no de engaño.
Fuentes:
Investigación y datos de mercado:
Casos prácticos y escándalos:
Granjas de contenido y automatización:
Asociaciones e iniciativas globales: