ChatGPT te está escuchando (y podría delatarte)

El caso OpenAI redefine la frontera entre la seguridad pública y la privacidad digital: el reto de proteger a la sociedad sin traicionar la confianza de los usuarios. Entre promesas tecnológicas y zonas grises normativas, la confianza en la IA sigue siendo una apuesta. Susurros digitales en un mundo que siempre escucha.

El gran cambio: OpenAI admite que informa a las autoridades

En septiembre de 2025, OpenAI hizo una revelación que conmocionó a la comunidad tecnológica mundial: ChatGPT supervisa activamente las conversaciones de los usuarios y denuncia los contenidos potencialmente delictivos a las fuerzas del orden.

La noticia, que salió a la luz casi por casualidad en una publicación del blog de la empresa, reveló que cuando los sistemas automáticos detectan usuarios que «planean dañar a otros», las conversaciones se derivan a canales especializados donde un pequeño equipo formado en políticas de uso las examina. Si los revisores humanos determinan que existe una «amenaza inminente de daño físico grave a otros», el caso puede ser remitido a las fuerzas del orden¹.

ChatGPT te invita cordialmente a compartir tus pensamientos más íntimos. No te preocupes, todo es confidencial... más o menos.

Fuentes:

El contraste con las profesiones «protegidas»

El privilegio del secreto profesional

Cuando hablamos con un psicólogo, un abogado, un médico o un sacerdote, nuestras palabras están protegidas por un mecanismo legal consolidado: el secreto profesional. Este principio, arraigado en siglos de tradición jurídica, establece que ciertas conversaciones son inviolables, incluso ante investigaciones penales.

Características del secreto profesional tradicional:

  • Protección muy amplia: las comunicaciones siguen siendo confidenciales incluso en caso de delitos confesados.
  • Excepciones limitadas y específicas: solo en casos extremos definidos por la ley, algunos profesionales pueden/deben romper el silencio.
  • Control humano cualificado: La decisión de violar la confidencialidad siempre queda en manos de un profesional cualificado.
  • Responsabilidad ética: los profesionales están sujetos a códigos deontológicos que equilibran los deberes hacia el cliente y la sociedad.

Los límites reales del secreto profesional

Contrariamente a la percepción común, el secreto profesional no es absoluto. Existen excepciones bien definidas que varían según la categoría profesional:

Para los abogados (art. 28 del Código Deontológico Forense): La divulgación está permitida cuando sea necesaria para:

  • El desarrollo de la actividad de defensa
  • Impedir la comisión de un delito de especial gravedad
  • Defenderse en una controversia contra su propio cliente
  • Procedimientos disciplinarios

Ejemplo crítico: si un cliente declara a su abogado que tiene intención de cometer un homicidio, entre la protección del derecho a la defensa y la protección del bien de la vida debe prevalecer esta última, y el abogado queda exento del secreto profesional².

Para los psicólogos (art. 13 del Código Deontológico): El secreto puede violarse cuando:

  • Existe la obligación de informar o denunciar los delitos perseguibles de oficio.
  • Se prevén graves peligros para la vida o la salud psíquica y física del sujeto y/o de terceros.
  • Existe un consentimiento válido y demostrable por parte del paciente.

Distinción importante: el psicólogo privado tiene mayor discrecionalidad que el público, que, como funcionario público, tiene obligaciones de denuncia más estrictas³.

Fuentes:

La IA como «no profesional»

ChatGPT opera en una zona gris completamente diferente:

Falta de privilegio legal: Las conversaciones con la IA no gozan de ninguna protección legal. Como admitió Sam Altman, director ejecutivo de OpenAI: «Si hablas con un terapeuta, un abogado o un médico sobre esos problemas, existe un privilegio legal para ello. Existe la confidencialidad entre médico y paciente, existe la confidencialidad legal, lo que sea. Y aún no hemos resuelto esto para cuando hablas con ChatGPT»².

Proceso automatizado: A diferencia de un profesional humano que evalúa cada caso individualmente, ChatGPT utiliza algoritmos para identificar contenidos «problemáticos», eliminando el juicio humano cualificado de la fase inicial de selección.

Fuentes:

Las implicaciones prácticas: un nuevo paradigma de vigilancia

La paradoja de la confianza tecnológica

La situación crea una paradoja preocupante. Millones de personas utilizan ChatGPT como confidente digital, compartiendo pensamientos íntimos, dudas, miedos e incluso fantasías criminales que nunca compartirían con un ser humano. Como informa Sam Altman: «La gente habla de las cosas más personales de su vida con ChatGPT. La gente lo utiliza, especialmente los jóvenes, como terapeuta, coach de vida»⁴.

El riesgo de la autocensura criminal: El hecho de saber que las conversaciones pueden ser monitoreadas podría, paradójicamente:

  • Empujar a los delincuentes hacia canales más ocultos
  • Impedir que las personas con pensamientos violentos busquen ayuda.
  • Crear un efecto «enfriamiento» de las comunicaciones digitales

Competencia frente a algoritmos: ¿quién decide qué es delito?

Un aspecto crucial destacado por los críticos se refiere a la competencia de quienes toman las decisiones finales.

Los profesionales humanos tienen:

  • Años de formación para distinguir entre fantasías e intenciones reales.
  • Códigos deontológicos que definen cuándo romper el secreto profesional
  • Responsabilidad legal personal por sus decisiones
  • Capacidad para evaluar el contexto y la credibilidad.

El sistema ChatGPT funciona con:

  • Algoritmos automatizados para la detección inicial
  • Personal de OpenAI que no tiene necesariamente formación clínica o criminológica.
  • Criterios de evaluación no públicos y potencialmente arbitrarios
  • Ausencia de mecanismos de control externos

Ejemplo problemático: ¿Cómo distingue un algoritmo entre:

  • Una persona que escribe una novela de suspense y busca inspiración para escenas violentas.
  • Alguien que fantasea sin intención de actuar.
  • Una persona que realmente planea un delito.

Fuentes:

Fuentes:

La contradicción de OpenAI: privacidad frente a seguridad

El doble rasero

La admisión de OpenAI crea una contradicción flagrante con sus posiciones anteriores. La empresa se ha resistido firmemente a las solicitudes de datos de los usuarios en los procesos judiciales, alegando la protección de la privacidad. En el caso contra el New York Times, OpenAI argumentó enérgicamente en contra de la divulgación de los registros de chat para proteger la privacidad de los usuarios⁴.

La ironía de la situación: OpenAI defiende la privacidad de los usuarios ante los tribunales, al tiempo que admite supervisar y compartir datos con autoridades externas.

El impacto del caso del New York Times

La situación se ha complicado aún más con la orden judicial que exige a OpenAI conservar todos los registros de ChatGPT de forma indefinida, incluidos los chats privados y los datos de la API. Esto significa que las conversaciones que los usuarios creían temporales ahora se almacenan de forma permanente⁵.

Fuentes:

Posibles soluciones y alternativas

¿Hacia un «privilegio IA»?

Como sugiere Sam Altman, podría ser necesario desarrollar un concepto de «privilegio de IA», una protección legal similar a la que se ofrece a los profesionales tradicionales. Sin embargo, esto plantea cuestiones complejas:

Opciones reglamentarias posibles:

  1. Modelo de licencias: Solo las IA certificadas pueden ofrecer «privilegio conversacional».
  2. Formación obligatoria: quienes gestionan contenidos sensibles deben tener cualificaciones específicas.
  3. Supervisión profesional: Participación de psicólogos/abogados cualificados en las decisiones de denuncia.
  4. Transparencia algorítmica: publicación de los criterios utilizados para identificar contenidos «peligrosos».

Soluciones técnicas intermedias

IA «Compartimentada»:

  • Sistemas separados para usos terapéuticos frente a usos generales
  • Cifrado de extremo a extremo para conversaciones confidenciales
  • Consentimiento explícito para cualquier tipo de supervisión

Enfoque «tripartito»:

  • Detección automática solo para amenazas inmediatas y verificables.
  • Revisión humana cualificada obligatoria
  • Proceso de apelación para decisiones impugnadas

El precedente de los profesionales digitales

Lecciones de otros sectores:

  • Telemedicina: Ha desarrollado protocolos para la privacidad digital.
  • Asesoramiento jurídico online: utiliza cifrado y verificaciones de identidad.
  • Terapia digital: aplicaciones especializadas con protecciones específicas.

Fuentes:

¿Qué significa para las empresas la IA?

Lecciones para el sector

El caso OpenAI sienta importantes precedentes para todo el sector de la inteligencia artificial:

  1. Transparencia obligatoria: Las empresas de IA deberán ser más explícitas con respecto a sus prácticas de supervisión.
  2. Necesidad de marcos éticos: se necesita una normativa clara sobre cuándo y cómo la IA puede interferir en las comunicaciones privadas.
  3. Formación especializada: Quienes toman decisiones sobre contenidos sensibles deben tener las competencias adecuadas.
  4. Responsabilidad legal: definir quién es responsable cuando un sistema de IA comete un error de evaluación.

Recomendaciones operativas

Para las empresas que desarrollan IA conversacional:

  • Implementar equipos multidisciplinares (abogados, psicólogos, criminólogos)
  • Desarrollar criterios públicos y verificables para la notificación.
  • Crear procesos de apelación para los usuarios
  • Invertir en formación especializada para el personal de auditoría

Para las empresas que utilizan IA:

  • Evaluar los riesgos de privacidad antes de la implementación
  • Informar claramente a los usuarios sobre los límites de la confidencialidad.
  • Considerar alternativas especializadas para usos sensibles.

El futuro de la confidencialidad digital

El dilema central: ¿Cómo equilibrar la prevención de delitos reales con el derecho a la privacidad y la confidencialidad digital?

La cuestión no es meramente técnica, sino que afecta a principios fundamentales:

  • Presunción de inocencia: supervisar conversaciones privadas implica una sospecha generalizada.
  • Derecho a la privacidad: incluye el derecho a tener pensamientos privados, incluso perturbadores.
  • Eficacia preventiva: No se ha demostrado que la vigilancia digital prevenga efectivamente los delitos.

Conclusiones: Encontrar el equilibrio adecuado

La revelación de OpenAI marca un punto de inflexión en la evolución de la inteligencia artificial, pero la cuestión no es si la notificación es correcta o incorrecta en términos absolutos: se trata de cómo hacerla eficaz, equitativa y respetuosa con los derechos.

La necesidad es real: las amenazas concretas de violencia, los planes de atentados u otros delitos graves requieren una intervención. La cuestión no es si denunciar, sino cómo hacerlo de forma responsable.

Las diferencias fundamentales que hay que resolver:

Formación y competencia:

  • Los profesionales humanos cuentan con protocolos consolidados para distinguir entre amenazas reales y fantasías.
  • Los sistemas de IA necesitan normas equivalentes y una supervisión cualificada.
  • Se necesita formación especializada para quienes toman las decisiones finales.

Transparencia y control:

  • Los profesionales operan bajo la supervisión de los colegios profesionales.
  • OpenAI necesita criterios públicos y mecanismos de control externos.
  • Los usuarios deben saber exactamente cuándo y por qué pueden ser denunciados.

Proporcionalidad:

  • Los profesionales sopesan caso por caso el deber de confidencialidad con la seguridad.
  • Los sistemas de IA deben desarrollar mecanismos similares, no algoritmos binarios.

Para las empresas del sector, el reto consiste en desarrollar sistemas que protejan eficazmente a la sociedad sin convertirse en instrumentos de vigilancia indiscriminada. La confianza de los usuarios es esencial, pero debe coexistir con la responsabilidad social.

Para los usuarios, la lección es doble:

  1. Las conversaciones con la IA no cuentan con las mismas protecciones que los profesionales tradicionales.
  2. Esto no es necesariamente negativo si se hace de forma transparente y proporcionada, pero es importante ser consciente de ello.

El futuro de la IA conversacional requiere un nuevo marco que:

  • Reconozca la legitimidad de la prevención criminal.
  • Establezca normas profesionales para quienes gestionan contenidos sensibles.
  • Garantizar la transparencia en los procesos de toma de decisiones.
  • Proteja los derechos individuales sin descuidar la seguridad.

La pregunta correcta no es si las máquinas deberían denunciar los delitos, sino cómo podemos conseguir que lo hagan (al menos) con la misma sensatez, formación y responsabilidad que los profesionales humanos.

El objetivo no es volver a una IA «ciega» ante los peligros reales, sino construir sistemas que combinen la eficiencia tecnológica con la ética y la competencia humana. Solo así podremos obtener lo mejor de ambos mundos: seguridad y derechos individuales protegidos.

Referencias y fuentes

  1. Futurismo - «OpenAI afirma que está escaneando las conversaciones de ChatGPT de los usuarios y denunciando el contenido a la policía».
  2. Estudio Jurídico Puce - «Secreto profesional del abogado»
  3. La Ley para Todos - «¿Debe denunciar al paciente el psicólogo que tiene conocimiento de un delito?»
  4. TechCrunch - «Sam Altman advierte que no existe confidencialidad legal al utilizar ChatGPT como terapeuta».
  5. Blog de Shinkai - «Las conversaciones de ChatGPT de OpenAI son escaneadas y denunciadas a la policía, lo que desata la indignación de los usuarios y el temor por la privacidad».
  6. Simon Willison - «OpenAI critica la orden judicial de conservar todos los registros de ChatGPT, incluidos los chats eliminados».
  7. Success Knocks - «Demanda contra OpenAI en 2025: apelación del NYT por los datos de ChatGPT»