La regulación de la inteligencia artificial está experimentando una transformación trascendental en 2025, con especial atención a las aplicaciones orientadas al consumidor. Las empresas que utilizan chatbots de IA, sistemas automatizados de toma de decisiones y tecnologías generativas deben prepararse para un panorama normativo cada vez más complejo y estricto.
2025 marca el final de la era del "Salvaje Oeste" del desarrollo de la IA. La Ley Europea de Inteligencia Artificial entró en vigor el 1 de agosto de 2024, y sus principales disposiciones empezaron a aplicarse en 2025: las obligaciones de alfabetización en materia de Inteligencia Artificial se hicieron efectivas el 2 de febrero de 2025, mientras que las normas de gobernanza y las obligaciones para los modelos GPAI empezaron a aplicarse el 2 de agosto de 2025.
Las normativas emergentes siguen un enfoque de riesgo de tres niveles:
1. Sistemas de IA para infraestructuras críticas: Las aplicaciones en sanidad, transporte, energía y mercados financieros requieren ahora certificación previa al despliegue, seguimiento continuo y supervisión humana significativa.
2. IA de cara al consumidor: Las aplicaciones que interactúan directamente con los consumidores deben proporcionar comunicaciones claras sobre el uso de la IA, mantener pistas de auditoría exhaustivas y aplicar protocolos de detección de sesgos.
3. AI Propósito General: Los sistemas generales también requieren registro, pruebas básicas de seguridad y divulgación de metodologías de formación.
El proyecto de ley 243 del Senado de California, presentado por el senador Steve Padilla, surgió en respuesta al trágico suicidio de Sewell Setzer, un chico de Florida de 14 años que se quitó la vida tras entablar una relación emocional con un chatbot.
SB 243 Requisitos clave:
La legislación prevé una demanda privada por daños y perjuicios reales o legales de 1.000 dólares por infracción, la cantidad que sea mayor.
El proyecto de ley SB 420 pretende establecer un marco normativo que garantice que los sistemas de inteligencia artificial respetan los derechos humanos y promueven la equidad, la transparencia y la rendición de cuentas. La legislación regula el desarrollo y la implantación de "sistemas automatizados de toma de decisiones de alto riesgo" exigiendo evaluaciones de impacto para valorar la finalidad, el uso de los datos y el potencial de sesgo.
Obligaciones de notificación al consumidor: Según el SB 420, las personas sujetas a sistemas automatizados de toma de decisiones deben saber cuándo se está utilizando la herramienta para tomar decisiones sobre ellas, recibir detalles sobre el sistema y, cuando sea técnicamente factible, tener la oportunidad de recurrir esas decisiones para que las revise un ser humano.
Alabama, Hawái, Illinois, Maine y Massachusetts han introducido legislación en 2025 que haría que la falta de notificación cuando los consumidores interactúan con chatbots de IA sea una violación de los Actos o Prácticas Desleales o Engañosas (UDAP), sometiendo a las empresas a una investigación por parte del Fiscal General y a posibles acciones privadas.
Hawai (HB 639): Clasificaría como desleal o engañoso el uso de chatbots de IA capaces de imitar el comportamiento humano sin comunicarlo previamente a los consumidores de forma clara y visible. Las pequeñas empresas que utilizan chatbots de IA sin saberlo están exentas a menos que se notifique claramente.
Illinois (HB 3021): Modificaría la Ley de Fraude al Consumidor y Prácticas Comerciales Engañosas para exigir una notificación clara cuando los consumidores se comuniquen con chatbots, agentes de IA o avatares que puedan hacer creer a los consumidores que se están comunicando con humanos.
California promulgó la primera ley de divulgación de bots (Cal. Bus. & Prof. Code § 17940-17942) que exige la divulgación cuando los bots se utilizan para "engañar a sabiendas" a una persona para transacciones comerciales o influencia electoral.
La Ley de Política de Inteligencia Artificial de Utah, en vigor desde el 1 de mayo de 2024, exige que los bots orientados al consumidor informen "a petición" de que los consumidores están interactuando con "inteligencia artificial generativa y no con un humano".
En 2022, los clientes de la aplicación de adelgazamiento Noom demandaron a la empresa por supuesta infracción de la ley de divulgación de bots de California, alegando que Noom afirmaba falsamente que los miembros recibirían planes personalizados de entrenadores humanos cuando en realidad eran bots automatizados. Las partes llegaron a un acuerdo por valor de 56 millones de dólares.
La FTC publicó directrices que exigen a las empresas "ser transparentes sobre la naturaleza de la herramienta con la que interactúan los usuarios" y advirtió contra el uso de herramientas automatizadas para engañar a la gente.
Según la Ley de IA de la UE, a partir de agosto de 2026, los proveedores de IA deben informar a los usuarios cuando interactúen con la IA, a menos que sea obvio. Los contenidos generados por IA deben estar claramente etiquetados de forma legible por máquina, salvo modificaciones menores.
Incluso las empresas que no se consideran a sí mismas empresas de IA podrían utilizar chatbots sujetos a regulación. Los chatbots están omnipresentes en la atención al cliente, la sanidad, la banca, la educación, el marketing y el entretenimiento.
Las empresas deben navegar por un panorama normativo fragmentado con requisitos diferentes en las distintas jurisdicciones. La falta de preeminencia federal significa que las empresas tienen que cumplir requisitos diferentes en los distintos estados.
Los legisladores estatales están considerando una diversa gama de legislación sobre IA, con cientos de regulaciones introducidas para 2025, incluyendo leyes integrales de protección al consumidor, regulaciones específicas del sector y regulaciones de chatbot.
Las organizaciones que den prioridad a la gobernanza de la IA obtendrán una ventaja competitiva, ya que el cumplimiento proactivo es la clave para liberar todo el potencial de la IA y evitar al mismo tiempo los escollos legales.
El panorama normativo para las aplicaciones de IA orientadas al consumidor está evolucionando rápidamente, con California a la cabeza a través de una legislación integral que aborda tanto la seguridad de los chatbots (SB 243) como la transparencia de las decisiones de IA más amplias (SB 420).
Este mosaico de normativas estatales crea problemas de cumplimiento para las empresas que operan en múltiples jurisdicciones, mientras que la falta de competencia federal significa que las empresas deben navegar por requisitos variables.
El énfasis en la transparencia, los derechos humanos de supervisión y la protección de las poblaciones vulnerables señala un cambio hacia una gobernanza de la IA más prescriptiva que da prioridad a la protección de los consumidores frente a la flexibilidad en la innovación.
Las aplicaciones de IA orientadas al consumidor son sistemas de inteligencia artificial que interactúan directamente con los consumidores, incluidos chatbots para atención al cliente, asistentes virtuales, sistemas de recomendación e IA conversacional utilizados en sectores como el comercio electrónico, la sanidad, los servicios financieros y el entretenimiento.
Los principales requisitos son:
No, el SB 243 se aplica específicamente a los "chatbots de compañía", es decir, sistemas de IA con una interfaz de lenguaje natural que proporcionan respuestas adaptativas, similares a las humanas, y son capaces de satisfacer las necesidades sociales de los usuarios. No todos los chatbots de atención al cliente entran necesariamente en esta definición.
Las sanciones varían según el Estado, pero pueden incluir:
Las empresas deberían:
Sí, la Ley de IA se aplica a cualquier sistema de IA que preste servicio a los usuarios en la UE, independientemente de dónde tenga su sede la empresa. A partir de agosto de 2026, los proveedores tendrán que informar a los usuarios cuando interactúen con IA, a menos que sea obvio.
Las empresas deben cumplir las leyes de cada estado en el que operan. En la actualidad, no existe un derecho federal preferente, por lo que es necesario desarrollar estrategias de cumplimiento multiestatales que satisfagan los requisitos más estrictos.
Algunas normativas prevén exenciones o requisitos reducidos para las pequeñas empresas. Por ejemplo, la ley hawaiana HB 639 exime a las pequeñas empresas que utilicen chatbots de IA sin saberlo, siempre que cumplan la normativa tras recibir la debida notificación.
Fuentes y enlaces de referencia: