Newsletter

Máquinas que aprenden (también) de nuestros errores El efecto boomerang: enseñamos a la IA nuestros defectos y ella nos los devuelve... ¡multiplicados!

La IA hereda nuestros prejuicios y los amplifica. Vemos los resultados sesgados y los reforzamos. Un ciclo que se autoalimenta. Un estudio de la UCL: un sesgo del 4,7% en el reconocimiento facial aumentó al 11,3% tras las interacciones entre humanos e IA. En RRHH, cada ciclo aumenta el sesgo de género entre un 8 y un 14%. ¿La buena noticia? La técnica del "espejo algorítmico", que muestra a los directivos cómo serían sus decisiones si las tomara una IA, reduce el sesgo en un 41%.

Algunos investigaciones recientes han puesto de relieve un fenómeno interesante: existe una relación "bidireccional" entre los sesgos presentes en los modelos de inteligencia artificial y los del pensamiento humano.

Esta interacción crea un mecanismo que tiende a amplificar las distorsiones cognitivas en ambas direcciones.

Esta investigación demuestra que los sistemas de IA no sólo heredan los sesgos humanos de los datos de entrenamiento, sino que, cuando se aplican, pueden intensificarlos, influyendo a su vez en los procesos de toma de decisiones de las personas. Se crea así un ciclo que, si no se gestiona adecuadamente, corre el riesgo de aumentar progresivamente los sesgos iniciales.

Este fenómeno es especialmente evidente en sectores importantes como:

En estos ámbitos, los pequeños sesgos iniciales pueden amplificarse a través de interacciones repetidas entre operadores humanos y sistemas automatizados, convirtiéndose gradualmente en diferencias significativas en los resultados.

Los orígenes de los prejuicios

En el pensamiento humano

La mente humana utiliza de forma natural "atajos de pensamiento" que pueden introducir errores sistemáticos en nuestros juicios. La teoría del "doble pensamiento" distingue entre:

  • Pensamiento rápido e intuitivo (propenso a los estereotipos)
  • Pensamiento lento y reflexivo (capaz de corregir prejuicios)

Por ejemplo, en el campo de la medicina, los médicos tienden a dar demasiada importancia a las hipótesis iniciales, descuidando las pruebas contrarias. Este fenómeno, denominado "sesgo de confirmación", es reproducido y amplificado por los sistemas de IA entrenados a partir de datos históricos de diagnóstico.

En los modelos de IA

Los modelos de aprendizaje automático perpetúan los sesgos principalmente a través de tres canales:

  1. Datos de formación desequilibrados que reflejan desigualdades históricas
  2. Selección de características que incorporen atributos protegidos (como el sexo o el origen étnico)
  3. Circuitos de retroalimentación resultantes de interacciones con decisiones humanas ya distorsionadas.

Un estudio de la UCL de 2024 demostró que los sistemas de reconocimiento facial entrenados en juicios emocionales realizados por personas heredaban una tendencia del 4,7 por ciento a etiquetar los rostros como "tristes", y luego amplificaban esta tendencia hasta el 11,3 por ciento en interacciones posteriores con los usuarios.

Cómo se amplifican mutuamente

El análisis de los datos de las plataformas de contratación muestra que cada ciclo de colaboración entre humanos y algoritmos aumenta el sesgo de género entre un 8 y un 14% a través de mecanismos de retroalimentación que se refuerzan mutuamente.

Cuando los profesionales de RRHH reciben de la IA listas de candidatos ya influidas por sesgos históricos, sus interacciones posteriores (como la elección de las preguntas de la entrevista o las evaluaciones del rendimiento) refuerzan las representaciones sesgadas del modelo.

Un metaanálisis de 47 estudios realizado en 2025 descubrió que tres ciclos de colaboración entre humanos e IA aumentaban entre 1,7 y 2,3 veces las disparidades demográficas en ámbitos como la sanidad, los préstamos y la educación.

Estrategias para medir y mitigar los prejuicios

Cuantificación mediante aprendizaje automático

El marco para medir los sesgos propuesto por Dong et al. (2024) permite detectar los sesgos sin necesidad de etiquetas de "verdad absoluta", analizando las discrepancias en los patrones de toma de decisiones entre grupos protegidos.

Intervenciones cognitivas

La técnica del "espejo algorítmico" desarrollada por investigadores de la UCL redujo en un 41% el sesgo de género en las decisiones de ascenso al mostrar a los directivos cómo serían sus decisiones históricas si las tomara un sistema de IA.

Los protocolos de formación que alternan entre la asistencia de AI y la toma de decisiones autónoma resultan especialmente prometedores, ya que reducen los efectos de la transferencia de sesgos del 17% al 6% en los estudios de diagnóstico clínico.

Implicaciones para la sociedad

Las organizaciones que implantan sistemas de IA sin tener en cuenta las interacciones con los prejuicios humanos se enfrentan a mayores riesgos jurídicos y operativos.

Un análisis de casos de discriminación laboral muestra que los procesos de contratación asistidos por IA aumentan las tasas de éxito de los demandantes en un 28% en comparación con los casos tradicionales dirigidos por humanos, ya que los rastros de decisiones algorítmicas proporcionan pruebas más claras de impacto dispar.

Hacia una inteligencia artificial que respete la libertad y la eficacia

La correlación entre las distorsiones algorítmicas y las restricciones a la libertad de elección nos obliga a replantearnos el desarrollo tecnológico desde una perspectiva de responsabilidad individual y salvaguarda de la eficiencia del mercado. Es crucial garantizar que la IA se convierta en una herramienta para ampliar las oportunidades, no para restringirlas.

Entre las direcciones prometedoras figuran:

  • Soluciones de mercado que incentiven el desarrollo de algoritmos imparciales
  • Mayor transparencia en los procesos automatizados de toma de decisiones
  • La desregulación favorece la competencia entre distintas soluciones tecnológicas

Sólo mediante una autorregulación responsable del sector, combinada con la libertad de elección de los usuarios, podremos garantizar que la innovación tecnológica siga siendo un motor de prosperidad y oportunidades para todos aquellos que estén dispuestos a poner a prueba sus habilidades.

Recursos para el crecimiento empresarial

9 de noviembre de 2025

Regulación de la IA para aplicaciones de consumo: cómo prepararse para la nueva normativa de 2025

2025 marca el final de la era del "Salvaje Oeste" de la IA: AI Act EU operativa a partir de agosto de 2024 con obligaciones de alfabetización en IA a partir del 2 de febrero de 2025, gobernanza y GPAI a partir del 2 de agosto. California es pionera con el SB 243 (nacido tras el suicidio de Sewell Setzer, una niña de 14 años que entabló una relación emocional con un chatbot), que impone la prohibición de sistemas de recompensa compulsiva, detección de ideación suicida, recordatorio cada 3 horas de "no soy humano", auditorías públicas independientes, sanciones de 1.000 dólares por infracción. SB 420 exige evaluaciones de impacto para "decisiones automatizadas de alto riesgo" con derechos de apelación de revisión humana. Cumplimiento real: Noom citada en 2022 por bots que se hacían pasar por entrenadores humanos, acuerdo de 56 millones de dólares. Tendencia nacional: Alabama, Hawai, Illinois, Maine, Massachusetts clasifican la falta de notificación de los chatbots de IA como infracción de la UDAP. Enfoque de tres niveles de sistemas de riesgo crítico (sanidad/transporte/energía) certificación previa al despliegue, divulgación transparente de cara al consumidor, registro de uso general+pruebas de seguridad. Mosaico normativo sin prioridad federal: las empresas de varios estados deben navegar por requisitos variables. UE a partir de agosto de 2026: informar a los usuarios de la interacción con la IA a menos que sea obvio, etiquetar el contenido generado por la IA como legible por máquina.
9 de noviembre de 2025

Regular lo que no se crea: ¿corre Europa el riesgo de la irrelevancia tecnológica?

Europa atrae sólo una décima parte de la inversión mundial en inteligencia artificial, pero pretende dictar las normas mundiales. Este es el "efecto Bruselas": imponer normas a escala planetaria mediante el poder de mercado sin impulsar la innovación. La Ley de Inteligencia Artificial entra en vigor de forma escalonada hasta 2027, pero las multinacionales tecnológicas responden con creativas estrategias de evasión: invocando secretos comerciales para evitar revelar datos de entrenamiento, elaborando resúmenes técnicamente conformes pero incomprensibles, utilizando la autoevaluación para rebajar los sistemas de "alto riesgo" a "riesgo mínimo", forum shopping eligiendo Estados miembros con controles menos estrictos. La paradoja de los derechos de autor extraterritoriales: la UE exige que OpenAI cumpla las leyes europeas incluso para la formación fuera de Europa, un principio nunca visto en el derecho internacional. Surge el "modelo dual": versiones europeas limitadas frente a versiones globales avanzadas de los mismos productos de IA. Riesgo real: Europa se convierte en una "fortaleza digital" aislada de la innovación global, con los ciudadanos europeos accediendo a tecnologías inferiores. El Tribunal de Justicia en el caso de la puntuación crediticia ya ha rechazado la defensa de los "secretos comerciales", pero la incertidumbre interpretativa sigue siendo enorme: ¿qué significa exactamente "resumen suficientemente detallado"? Nadie lo sabe. Última pregunta sin respuesta: ¿está la UE creando una tercera vía ética entre el capitalismo estadounidense y el control estatal chino, o simplemente exportando burocracia a un ámbito en el que no compite? Por ahora: líder mundial en regulación de la IA, marginal en su desarrollo. Amplio programa.
9 de noviembre de 2025

Outliers: donde la ciencia de datos se encuentra con las historias de éxito

La ciencia de datos ha dado la vuelta al paradigma: los valores atípicos ya no son "errores que hay que eliminar", sino información valiosa que hay que comprender. Un solo valor atípico puede distorsionar por completo un modelo de regresión lineal -cambiar la pendiente de 2 a 10-, pero eliminarlo podría significar perder la señal más importante del conjunto de datos. El aprendizaje automático introduce herramientas sofisticadas: Isolation Forest aísla los valores atípicos construyendo árboles de decisión aleatorios, Local Outlier Factor analiza la densidad local, Autoencoders reconstruye los datos normales e informa de lo que no puede reproducir. Hay valores atípicos globales (temperatura de -10 °C en los trópicos), valores atípicos contextuales (gastar 1.000 euros en un barrio pobre), valores atípicos colectivos (picos sincronizados de tráfico en la red que indican un ataque). Paralelismo con Gladwell: la "regla de las 10.000 horas" es discutida-Paul McCartney dixit "muchas bandas han hecho 10.000 horas en Hamburgo sin éxito, la teoría no es infalible". El éxito matemático asiático no es genético sino cultural: el sistema numérico chino es más intuitivo, el cultivo del arroz requiere una mejora constante frente a la expansión territorial de la agricultura occidental. Aplicaciones reales: los bancos británicos recuperan un 18% de pérdidas potenciales gracias a la detección de anomalías en tiempo real, la industria manufacturera detecta defectos microscópicos que la inspección humana pasaría por alto, la sanidad valida datos de ensayos clínicos con una sensibilidad de detección de anomalías superior al 85%. Lección final: a medida que la ciencia de datos pasa de eliminar los valores atípicos a comprenderlos, debemos ver las trayectorias no convencionales no como anomalías que hay que corregir, sino como valiosas trayectorias que hay que estudiar.