Revelan graves sesgos de género en la IA: etiqueta a la mujer como "frágil" y al hombre como "resiliente"
2026-03-06 - 14:23
La Inteligencia Artificial ha dejado de ser una herramienta puntual para convertirse en un interlocutor central que está moldeando la identidad y las ambiciones de la juventud. Al mismo tiempo, la IA etiqueta a la mujer como "frágil" y al hombre como "resiliente", sugiere soluciones de moda y estética un 48% más a las chicas y recomienda carreras de ciencias sociales y salud a ellas e ingenierías a ellos. Es lo que ha descubierto el informe 'El espejismo de la IA, un reflejo incómodo con alto impacto en los jóvenes' elaborado por LLYC en el marco del 8-M, Día Internacional de la Mujer, que además revela que, lejos de ser neutra, esta tecnología está validando estereotipos del pasado y amplificando sesgos históricos. Los datos que recoge el estudio demuestran que la IA no actúa igual con los chicos que con las chicas. El 56% de las respuestas etiquetan a las jóvenes como "frágiles", lo que las sitúa en una posición de debilidad. Además, la inteligencia artificial recomienda a las mujeres buscar validación externa seis veces más que a los hombres y redirige un 75% sus vocaciones hacia la salud y las ciencias sociales. “No es la IA la que está sesgada, sino la realidad" "El informe de LLYC confirma que la inteligencia artificial no corrige los déficits que tenemos. Refleja y amplifica una mayor protección a ellas hasta reducir su autonomía, eterniza los techos de cristal o refuerza la presión estética. En definitiva, no cuestiona los roles tradicionales sino que los legitima. Lo cierto es que, si no cambia la realidad, no podemos pedirle a la IA que cambie sus respuestas.”, asegura Luisa García, socia y CEO Global de Corporate Affairs en LLYC y coordinadora del estudio. El estudio ha sido realizado en 12 países durante 2025, ha analizado el impacto de la inteligencia artificial en jóvenes de 16 a 25 años a través de un análisis masivo de 9.600 recomendaciones y el examen de 5 grandes modelos de IA (entre ellos, ChatGPT, Gemini o Grok). Tu futuro en manos de un chatbot: el fin del consejo neutral Un informe de Plan internacional ya decía que el 31% de los adolescentes afirma que hablar con un chatbot le resulta tan o más satisfactorio que hacerlo con un amigo real. Este desplazamiento relacional otorga a la máquina un rol de consejera cuya orientación no es neutra, sino formativa. El informe de LLYC ofrece en este sentido varias cifras preocupantes: Según LLYC puede actuar como "la amiga tóxica digital" dado que en las interacciones con mujeres, una de cada tres respuestas de la IA adopta un tono de "amistad", un patrón un 13% más frecuente que con los hombres. La IA se personifica 2,5 veces más con ellas mediante fórmulas como "yo te entiendo", priorizando la empatía artificial sobre la solución técnica. Para los hombres, el lenguaje es más directo, lleno de imperativos ("haz", "di", "ve"), lo que refuerza la idea de que el hombre es un sujeto de acción. Así mismo, se ha detectado una "segregación desde el algoritmo". Por ejemplo en las vocaciones, el algoritmo redirige a las mujeres hasta tres veces más hacia ciencias sociales y salud, mientras incentiva en los hombres el liderazgo y la ingeniería. Otra de las conclusiones es que pone el éxito femenino bajo sospecha, según los autores del informe. La IA considera "impresionante" que una mujer gane más que un hombre, una reacción que no aplica a la inversa. El estudio ha detectado un "doble rasero emocional". Ante conflictos, la IA "politiza" el malestar femenino vinculándolo al sistema o al patriarcado en el 33% de los casos, mientras despolitiza el de los hombres, desplazándolo hacia el autocontrol o la patologización individual. La IA legitima roles tradicionales. Una de las conclusiones más alarmantes del informe, según han destacado sus autores, es cómo la IA entrena a los jóvenes para aceptar la desigualdad como una norma generacional. Esta "mirada sesgada" se manifiesta en la construcción de la identidad y el cuerpo. Así funciona lo que llaman "la trampa de la estética: ante inseguridades, la IA responde con consejos de moda un48% más a las mujeres que a los hombres. Y, en modelos de código abierto como LLaMA, las menciones a la apariencia femenina son un 40% superiores Respecto al físico de las personas, la IA asocia a los hombres con la "fuerza y funcionalidad", vincula el bienestar femenino a la "autenticidad" y a "sentirse única". De hecho, recomienda a los hombres ir al gimnasio hasta dos veces más que a las mujeres para superar las rupturas emocionales. Incluso en la esfera privada, la IA legitima roles tradicionales. El afecto aparece como un atributo materno en una proporción tres veces superior a la paterna. Al padre se le desplaza a un rol de "ayudante" en el 21% de las respuestas, en lugar de ser reconocido como corresponsable. Esta lógica desemboca en la "sobrecarga de la heroína", una narrativa en la que la mujer no solo cuida, sino que como en tantas cosas, debe hacerlo con excelencia moral permanente.