De inteligencia artificial, sesgos y propaganda
2026-03-28 - 08:00
Danny Bones no existe. Pero canta, seduce, moviliza y suma miles de visualizaciones en redes sociales. Tiene una cara perfecta, una mandíbula que despierta pasiones, una mirada intensa y una estética de videoclip absolutamente cuidada y con un discurso político muy claro. Clarísimo. Pero Danny Bones, no existe. Porque es un rapero creado con inteligencia artificial e impulsado por un colectivo británico llamado The Node Project. Son muchos los expertos que están hablando de este fenómeno en estos últimos días, porque quizás estamos frente al primer ejemplo documentado de cómo la IA ha entrado de lleno en el terreno de la política como herramienta de propaganda. La novedad no está solo en que cree la música. Lo que asusta un poco más es que ya no se está limitando a acelerar procesos o a automatizar tareas, sino que ya se están construyendo relatos políticos, con referentes muy adecuados para amplificar discursos ideológicos. Como sucede en el caso de Bones, además, cargados de referencias xenófobas envueltas en una estética tan impecable como inquietante. Porque Bones es, objetivamente, “guapo”. Demasiado. Blanco, joven, simétrico, con rasgos que encajan a la perfección en los cánones visuales que dominan hoy el imaginario digital. Y ahí empieza el verdadero problema. La inteligencia artificial no crea en el vacío. Aprende de datos, imágenes, textos y patrones que ya existen. Y, por supuesto, también de los sesgos. Porque la IA está tan sesgada como la sociedad lo está y le permite ser. Así que no solo reproduce los sesgos, si no que los perfecciona y amplifica al servicio del mejor postor. Como sucede con este personaje atractivo que es capaz de convertir su voz en un mensaje masivo, estudiado, pegadizo y emocionalmente eficaz. Pero no es un fenómeno nuevo. Como no, antes llegaron las mujeres. Avatares femeninos jóvenes, artificiales, hipersexualizados y eternamente perfectos, diseñados para encajar en un ideal de belleza tan medido como irreal. Mujeres que no se cansan, que no fallan, que no envejecen ni enferman. Mujeres que no se salen nunca del marco. Quizá ha llegado el momento de exigir -y crear- avatares menos perfectos y más reales. Más diversos, más humanos... Así que aquí la cruel paradoja. Una tecnología que nace al servicio de la humanidad, con la que podemos democratizar la representación y abrir espacios para la diversidad, está teniendo éxito con la reproducción de los estereotipos más clásicos, con una eficacia nunca vista. Y el riesgo es especialmente alto para las generaciones más jóvenes, que crecen socializándose entre imágenes, referentes y cuerpos que, directamente, no son humanos, pero sí normativos. Cuando la referencia es inalcanzable porque es ficticia, la presión estética deja de ser aspiracional y se vuelve estructural. Ya no se trata de “parecerte a alguien”, sino de no poder parecerte nunca a nadie. Y si eso ocurre con el cuerpo, ¿por qué no con las ideas, los valores o la forma de entender el mundo? La frontera entre lo real y lo virtual se difumina cada vez más. Por eso, hablar hoy de inteligencia artificial es hablar, necesariamente, de ética. Y de comunicación inclusiva. No basta con preguntarnos qué puede hacer la IA, sino para qué la estamos usando, a quién representa y a quién deja fuera. Detectar y minimizar sesgos no es un gesto técnico, es una decisión social. Implica revisar los datos con los que entrenamos los sistemas, diversificar referentes, cuestionar estéticas únicas y huir de la falsa neutralidad tecnológica. Porque la IA no es neutral. Refleja las prioridades de quienes la diseñan y la utilizan. Quizá ha llegado el momento de exigir -y, por qué no, crear- avatares menos perfectos y más reales. Más diversos, más humanos... más incómodos incluso. Porque la perfección artificial puede ser muy atractiva, pero también profundamente excluyente. Utilicemos la IA como una palanca poderosa para la transformación social. O puede convertirse en un espejo que devuelva, amplificados, todos nuestros prejuicios.