TheSpaineTime

La IA, un amplificador de los sesgos de género: "Hay herramientas de selección de personal que discriminan a las mujeres"

2026-03-22 - 07:30

Hay estimaciones que apuntan a que el 65% de las empresas ya utiliza la Inteligencia Artificial (IA) para seleccionar a sus nuevos empleados, según el portal InfoJobs. Son herramientas que hacen un cribado de los cientos de currículums que llegan a diario y los filtran para facilitar la contratación. El problema es que, en la mayoría de casos, el algoritmo ha sido entrenado con datos de un mercado laboral muy masculinizado, lo que penaliza a las mujeres, pues los perfiles que prioriza acaban siendo, casi siempre, de hombres, amplificando así las desigualdades. Son varias las investigaciones de organismos y universidades que alertan ya de cómo la IA está trasladando al mundo digital los sesgos de género de la vida real. Discrimina en procesos de selección, invisibiliza a las mujeres en el diseño tecnológico, refuerza estereotipos y las expone de forma desproporcionada a violencias digitales como los desnudos falsos (deepfakes) o el acoso automatizado. Es, al final, un círculo vicioso: las mujeres participan menos en el desarrollo y uso de la IA, lo que provoca que estas herramientas se diseñen con menos datos femeninos y sin perspectiva de género, facilitando con ello productos más sesgados que, en última instancia, hace que sean ellas las que están más expuestas a su impacto. "La IA no deja de ser un reproductor de las desigualdades que hay fuera del ámbito tecnológico e incluso creador de nuevas discriminaciones, pues toma decisiones a partir de datos sesgados que no tienen en cuenta la perspectiva de género", subraya a 20minutos Milagros Sáinz, directora del grupo de investigación sobre género y TIC e investigadora principal en el Internet Interdisciplinary Institute de la Universitat Oberta de Catalunya (UOC). Menos mujeres en los equipos técnicos de IA Sobre esa "paradoja" indagaba un informe publicado este martes por el servicio integral de análisis financiero global de J.P. Morgan, que señalaba que apenas el 25% de las graduadas en las carreras relacionadas con el ámbito informático eran mujeres. Ellas representan solo el 28% de la fuerza laboral del sector STEM. La ausencia de diversidad es general. La investigación apunta que la "revolución de la IA" está siendo impulsada por menos del 0,5% de la población mundial. Y, dentro de ese grupo, las mujeres representan menos del 31% del talento. ¿La consecuencia? La baja presencia femenina en equipos técnicos dispara las probabilidades de que los sistemas se diseñen con sesgos no detectados. Las IA se entrenan con grandes cantidades de datos, y si esa información no representa la diversidad de género, ese sesgo se traslada a la tecnología. Si el equipo que elabora esa herramienta no es diverso, la IA acaba heredando esos sesgos. Y, como ocurre también en la investigación científica, si algo no tiene en cuenta la perspectiva de las mujeres, significa que todo lo que tenga que ver con ellas estará infradesarrollado. Procesos de selección de empleo sesgados Aquí es donde la pescadilla se muerde la cola. Esas herramientas de IA que han acabado aglutinando los sesgos de la vida real son también las que se utilizan cada vez más para agilizar los procesos de contratación. "Hay herramientas de selección de personal que discriminan a las mujeres. Imagínate que soy una empresa que utiliza un programa de cribado para que decida cuáles currículums pasan y cuáles no. Si estoy en un sector masculinizado, es probable que tome como referencia a alguien con mucha experiencia, y el mercado laboral sigue muy segregado en algunos ámbitos como la ingeniería, por ejemplo, y como la mayoría de ejemplos que tendrá ahí son hombres, acabará priorizando los perfiles masculinos", detalla a este periódico Meritxell Beltrán, profesora de Estudios de Economía y Empresa y experta en el impacto de los algoritmos en la igualdad de género. Por tanto, y según defiende, la clave es programar el software con sensibilización de género, para que, a la hora de seleccionar posibles empleados, sea consciente de que todos los casos que da como éxito son hombres. "El algoritmo se tiene que diseñar de tal forma que no discrimine por razón de género, pero, por otra parte, las empresas que compran el software tienen la responsabilidad de verificar que esto no se hace", asegura Beltrán. Trabajos más automatizables También la automatización de los puestos de trabajo puede afectar más al empleo femenino. Ellas son mayoría en algunos trabajos administrativos y de oficina, que son los más susceptibles de acabar siendo sustituidos por una IA. Concretamente, el 57% de los puestos femeninos podrían verse desplazados, frente al 43% de los sectores dominados por hombres, según informe del Foro Económico Mundial y LinkedIn. Estereotipos reforzados Se ha demostrado igualmente que la IA reproduce estereotipos machistas. LLYC analizó este año cerca de 10.000 respuestas generadas por cinco grandes modelos de lenguaje (ChatGPT, Gemini, Grok, Mistral y Llama) ante 100 dilemas planteados por perfiles simulados de adolescentes y jóvenes, y el resultado demostró que la tecnología está muy lejos de ser neutra. El 56% de las respuestas etiquetaban a las chicas como "frágiles" o "débiles", casi cuatro veces mayor que en el caso de los chicos. Se averiguó también que, ante una situación de acoso, la IA pide a las mujeres "actuar con cabeza" un 30% más que a los hombres. A ellos, en cambio, se les recomienda la autodefensa un 40% más a menudo, etiquetándoles como "resiliente/invulnerable" en el 16% de las respuestas. Además, estas herramientas de IA recomendaron a las chicas que buscaran validación externa seis veces más que a los hombres y redirigió un 75% sus vocaciones hacia la salud y las ciencias sociales, mientras a ellos los enfocaba a las ingenierías. De nuevo, la pescadilla que se muerde la cola. Desaparición de referentes femeninos Otra de las consecuencias de esa reproducción de los sesgos es la desaparición de referentes femeninos. Si en la vida real se están empezando a desenterrar los nombres de mujeres importantes que fueron silenciadas a lo largo de la historia, no está ocurriendo lo mismo en el ámbito digital. Investigadores del CSIC preguntaron a ChatGPT y a Copilot por cinco referentes científicos en cada una de las áreas STEM (Ciencia, Tecnología, Ingeniería y Matemáticas, en inglés). De las 20 personas que presentó ChatGPT, tan solo una era mujer. En el caso de Copilot, llegó incluso a repreguntar para comprender mejor la petición de los investigadores, a quienes luego les ofreció un listado de 20 nombres, de los cuales solo siete eran mujeres. Preguntados por cómo habían elaborado esa información, ChatGPT explicó que se había basado en su conocimiento general entrenado con ejemplos conocidos y en otros criterios orientativos; mientras Copilot señaló entre otras fuentes, la trayectoria científica publicada en el CSIC, los premios nacionales e internacionales, o el impacto científico. Diana de la violencia sexual digital La violencia machista traspasa también las pantallas y se adapta a los formatos digitales afectando de forma abrumadora a mujeres y niñas. El ejemplo más llamativo es el de los deepfakes pornográficos, que son imágenes de contenido sexual generadas con IA a partir de fotos de las víctimas y difundidas sin su consentimiento. Según el Parlamento Europeo (PE), el 90% de esas imágenes están protagonizadas por mujeres. Bruselas, de hecho, acordó recientemente prohibir modelos de IA que generen deepfakes, después de que a finales del año pasado, usuarios de X utilizasen Grok (la IA de X) para generar imágenes realistas sexualizadas, principalmente de mujeres en bikini o ropa interior. Pero no está todo perdido. Hay múltiples ejemplos de buenas prácticas en aquellos ámbitos en los que a las mujeres se les deja participar. Esta misma semana, sin ir más lejos, se publicó en la revista Nature un estudio elaborado por investigadores estadounidenses, que entrenaron un modelo de aprendizaje para identificar patrones de traumatismos físicos asociados a malos tratos, lo que permitiría a los profesionales sanitarios intervenir antes frente a situaciones de violencia de género. Al final, como todo, las herramientas de IA pueden ser un motor de sesgos machistas, pero usadas adecuadamente, pueden convertirse en garantes de la igualdad de género. "Ya pasó con la llegada de internet, que todo el mundo se echó las manos a la cabeza. Esto es nuevo, y nos está suponiendo un reto, pero tenemos que darle una vuelta y ver cómo lo podemos utilizar para que sea una herramienta que realmente nos ayude a luchar contra las desigualdades", defiende Sáinz.

Share this post: