Fabio Lauria

Máquinas que aprenden (también) de nuestros errores El efecto boomerang: enseñamos a la IA nuestros defectos y ella nos los devuelve... ¡multiplicados!

13 de abril de 2025
Compartir en las redes sociales

Algunos investigaciones recientes han puesto de relieve un fenómeno interesante: existe una relación "bidireccional" entre los sesgos presentes en los modelos de inteligencia artificial y los del pensamiento humano.

Esta interacción crea un mecanismo que tiende a amplificar las distorsiones cognitivas en ambas direcciones.

Esta investigación demuestra que los sistemas de IA no sólo heredan los sesgos humanos de los datos de entrenamiento, sino que, cuando se aplican, pueden intensificarlos, influyendo a su vez en los procesos de toma de decisiones de las personas. Se crea así un ciclo que, si no se gestiona adecuadamente, corre el riesgo de aumentar progresivamente los sesgos iniciales.

Este fenómeno es especialmente evidente en sectores importantes como:

En estos ámbitos, los pequeños sesgos iniciales pueden amplificarse a través de interacciones repetidas entre operadores humanos y sistemas automatizados, convirtiéndose gradualmente en diferencias significativas en los resultados.

Los orígenes de los prejuicios

En el pensamiento humano

La mente humana utiliza de forma natural "atajos de pensamiento" que pueden introducir errores sistemáticos en nuestros juicios. La teoría del "doble pensamiento" distingue entre:

  • Pensamiento rápido e intuitivo (propenso a los estereotipos)
  • Pensamiento lento y reflexivo (capaz de corregir prejuicios)

Por ejemplo, en el campo de la medicina, los médicos tienden a dar demasiada importancia a las hipótesis iniciales, descuidando las pruebas contrarias. Este fenómeno, denominado "sesgo de confirmación", es reproducido y amplificado por los sistemas de IA entrenados a partir de datos históricos de diagnóstico.

En los modelos de IA

Los modelos de aprendizaje automático perpetúan los sesgos principalmente a través de tres canales:

  1. Datos de formación desequilibrados que reflejan desigualdades históricas
  2. Selección de características que incorporen atributos protegidos (como el sexo o el origen étnico)
  3. Circuitos de retroalimentación resultantes de interacciones con decisiones humanas ya distorsionadas.

Un estudio de la UCL de 2024 demostró que los sistemas de reconocimiento facial entrenados en juicios emocionales realizados por personas heredaban una tendencia del 4,7 por ciento a etiquetar los rostros como "tristes", y luego amplificaban esta tendencia hasta el 11,3 por ciento en interacciones posteriores con los usuarios.

Cómo se amplifican mutuamente

El análisis de los datos de las plataformas de contratación muestra que cada ciclo de colaboración entre humanos y algoritmos aumenta el sesgo de género entre un 8 y un 14% a través de mecanismos de retroalimentación que se refuerzan mutuamente.

Cuando los profesionales de RRHH reciben de la IA listas de candidatos ya influidas por prejuicios históricos, sus interacciones posteriores (como la elección de las preguntas de la entrevista o las evaluaciones del rendimiento) refuerzan las representaciones distorsionadas del modelo.

Un metaanálisis de 47 estudios realizado en 2025 descubrió que tres ciclos de colaboración entre humanos e IA aumentaban entre 1,7 y 2,3 veces las disparidades demográficas en ámbitos como la sanidad, los préstamos y la educación.

Estrategias para medir y mitigar los prejuicios

Cuantificación mediante aprendizaje automático

El marco para medir los sesgos propuesto por Dong et al. (2024) permite detectar los sesgos sin necesidad de etiquetas de "verdad absoluta", analizando las discrepancias en los patrones de toma de decisiones entre grupos protegidos.

Intervenciones cognitivas

La técnica del "espejo algorítmico" desarrollada por investigadores de la UCL redujo en un 41% el sesgo de género en las decisiones de ascenso al mostrar a los directivos cómo serían sus decisiones históricas si las tomara un sistema de IA.

Los protocolos de formación que alternan entre la asistencia de AI y la toma de decisiones autónoma resultan especialmente prometedores, ya que reducen los efectos de la transferencia de sesgos del 17% al 6% en los estudios de diagnóstico clínico.

Implicaciones para la sociedad

Las organizaciones que implantan sistemas de IA sin tener en cuenta las interacciones con los prejuicios humanos se enfrentan a mayores riesgos jurídicos y operativos.

Un análisis de casos de discriminación laboral muestra que los procesos de contratación asistidos por IA aumentan las tasas de éxito de los demandantes en un 28% en comparación con los casos tradicionales dirigidos por humanos, ya que los rastros de decisiones algorítmicas proporcionan pruebas más claras de impacto dispar.

Hacia una inteligencia artificial que respete la libertad y la eficacia

La correlación entre las distorsiones algorítmicas y las restricciones a la libertad de elección nos obliga a replantearnos el desarrollo tecnológico desde una perspectiva de responsabilidad individual y salvaguarda de la eficiencia del mercado. Es crucial garantizar que la IA se convierta en una herramienta para ampliar las oportunidades, no para restringirlas.

Entre las direcciones prometedoras figuran:

  • Soluciones de mercado que incentiven el desarrollo de algoritmos imparciales
  • Mayor transparencia en los procesos automatizados de toma de decisiones
  • La desregulación favorece la competencia entre distintas soluciones tecnológicas

Sólo mediante una autorregulación responsable del sector, combinada con la libertad de elección de los usuarios, podremos garantizar que la innovación tecnológica siga siendo un motor de prosperidad y oportunidades para todos aquellos que estén dispuestos a poner a prueba sus habilidades.

Fabio Lauria

CEO y Fundador | Electe

CEO de Electe, ayudo a las PYME a tomar decisiones basadas en datos. Escribo sobre inteligencia artificial en el mundo empresarial.

Más populares
Regístrate para recibir las últimas noticias

Reciba semanalmente noticias e información en su buzón
. ¡No se lo pierda!

¡Gracias! ¡Tu envío ha sido recibido!
¡Ups! Algo salió mal al enviar el formulario.