TheSpaineTime

X se llena de imágenes falsas sobre la guerra: expertos alertan del auge del 'AI slop'

2026-03-12 - 13:53

La desinformación no es un problema nuevo, pero en los momentos de conflicto es un mal que se agrava todavía más. Actualmente, el peligro de los vídeos y noticias falsos tiene su foco en la crisis que atraviesa Oriente Medio. Tal Hagin, investigador y analista especializado en desinformación online, ha sido una de las voces más activas alertando de los preocupantes fallos que se están produciendo al intentar verificar información con Grok. Tal y como recoge el medio internacional Wired, cuando Hagin pidió al chatbot de IA que comprobara una publicación en X (antes Twitter) sobre misiles iraníes que supuestamente habían impactado en Tel Aviv, la herramienta impulsada por inteligencia artificial de Elon Musk “falló estrepitosamente”. El experto, conocido por analizar campañas de desinformación y contenido viral falso en redes sociales, ha advertido de la creciente oleada de imágenes, vídeos y publicaciones manipuladas que circulan en la plataforma, muchas de ellas generadas con IA. En concreto, Grok identificó de forma incorrecta tanto la ubicación como la fecha de un vídeo, que en realidad había sido compartido originalmente por un medio estatal iraní. Para intentar justificar su respuesta, la herramienta llegó incluso a compartir una imagen hecha con inteligencia artificial como prueba. Es el fenómeno conocido como AI slop y ni siquiera algo tan serio como las guerras está escapando de él. La guerra también se libra con imágenes generadas por IA Desde que comenzó la escalada militar entre Estados Unidos, Irán e Israel el 28 de febrero, la plataforma X se ha llenado de publicaciones engañosas. Muchas cuentas están difundiendo vídeos antiguos reutilizados o material generado con inteligencia artificial para exagerar daños o alterar el relato del conflicto. El reportaje de Wired recoge varios ejemplos. El pasado 2 de marzo, funcionarios iraníes y medios estatales compartieron vídeos generados con IA que mostraban un rascacielos en Bahréin en llamas. También se han hecho virales imágenes de un bombardero estadounidense B-2 supuestamente derribado por Irán, con soldados estadounidenses detenidos (más de un millón de visualizaciones) o de miembros de la Delta Force capturados por autoridades iraníes (más de cinco millones). Según el análisis, muchas de estas imágenes y vídeos resultan lo suficientemente realistas como para engañar a numerosos usuarios. También circulan vídeos menos convincentes —como uno que supuestamente muestra a fuerzas iraníes fabricando misiles en el interior de una cueva— que aun así logran acumular millones de visualizaciones. Por otro lado, la inteligencia artificial está siendo utilizada para difundir propaganda política. Investigadores del Institute for Strategic Dialogue (ISD) han detectado una red de cuentas en X vinculadas a propaganda favorable al régimen iraní que comparte imágenes generadas por IA con narrativas antisemitas. Entre los contenidos identificados aparecen escenas ficticias que muestran a judíos ortodoxos liderando a soldados estadounidenses hacia la guerra o celebrando la muerte de militares. Ante la avalancha de material falso, X anunció que desmonetizará temporalmente las cuentas con marca azul que publiquen vídeos de conflictos armados generados con inteligencia artificial sin etiquetarlos correctamente. Sin embargo, la compañía no ha detallado cuántas cuentas se han visto afectadas por esta medida. Millones de visualizaciones antes de desaparecer Este episodio vuelve a reflejar uno de los grandes problemas actuales del ecosistema informativo: la dificultad de distinguir contenido real de material manipulado en un mundo en el que la IA permite generar imágenes cada vez más convincentes. Además, aunque las plataformas reaccionan ante estas publicaciones falsas y las eliminan, muchas alcanzan millones de visualizaciones antes de desaparecer. Un ejemplo citado por Wired es un vídeo manipulado que mostraba a una fila de chicas jóvenes pasando frente a Donald Trump vestidas únicamente con ropa interior. Según el ISD, el contenido superó los 6,8 millones de visualizaciones antes de ser retirado, aunque sigue circulando en otras cuentas. “Lo más singular de esta guerra es el enorme aumento de contenido generado con inteligencia artificial que tengo que desmentir”, lamenta Hagin. “Probablemente se deba a que la IA ya es lo suficientemente avanzada como para engañar incluso a periodistas y a la facilidad con la que los usuarios pueden crear este tipo de AI slop sin ninguna consecuencia. Cuanto más tiempo pasemos sin regulaciones contra el abuso de la IA, mayor será el daño”, concluye.

Share this post: