TheSpaineTime

El peligro uso de la IA: la creación de desnudos falsos se dispara entre los adolescentes

2026-03-21 - 08:00

La generación de imágenes sexuales mediante inteligencia artificial, especialmente desnudos no consentidos, no es un fenómeno nuevo, sino una problemática que ha ido creciendo de forma considerable desde que estalló el boom por dicha tecnología. Ya en 2023, el conocido caso de Almendralejo (Badajoz) puso en evidencia el impacto real de esta práctica, cuando varias menores fueron víctimas de la difusión de imágenes falsas en las que aparecían desnudas. En 2024, las cantantes Taylor Swift y Selena Gómez también fueron víctimas de la difusión de unas imágenes sexualmente explícitas creadas por IA y, un año después, en 2025, se dio a conocer que la app ClothOff estaba acusada de producir cada día 200.000 imágenes de este tipo. Más recientemente, en enero de este año, el chatbot Grok de xAI desató una gran polémica porque generaba desnudos no consensuados de mujeres, teniendo en cuenta que llegó a crear hasta 6.700 imágenes por hora de chicas desnudas o en lencería. Pero al final, para frenar esta mala práctica, X limitó la edición de imágenes con Grok a los usuarios de pago y anunció un cambio de política para ofrecer más protecciones. No obstante, lejos de disminuir los deepfakes, la tendencia de crear imágenes sexualmente explícitas con IA continúa extendiéndose, especialmente entre los más jóvenes. Según un nuevo estudio publicado en la revista de acceso abierto PLOS One por Chad Steel, de la Universidad George Mason (Estados Unidos), más de la mitad de los adolescentes de EEUU han empleado herramientas de IA para crear imágenes de desnudos. Acorde a los resultados compartidos de la encuesta, el 55,3% de los jóvenes afirmó haber utilizado apps de desnudos para crear al menos una imagen de sí mismos o de otros, mientras que un 54,4% reconoció haber recibido imágenes de desnudos generados por IA. Además, un 36,3% informó que alguien había creado una fotografía de ellos mismos sin un previo consentimiento, teniendo en cuenta que un 33,2% dijo que esas imágenes se terminaron compartiendo sin un permiso previo. Por otro lado, cabe mencionar que los participantes masculinos de la encuesta son los que han reportado mayores tasas de creación y distribución de estas imágenes, tanto con consentimiento como sin él. El estudio pone de manifiesto la normalización y la facilidad de acceso a este tipo de prácticas. La combinación de tecnologías cada vez más avanzadas y su disponibilidad generalizada facilita la creación y difusión de contenido dañino, por lo tanto, en este contexto, la generación de imágenes con IA sigue representando un riesgo significativo, tanto su capacidad para vulnerar la privacidad y la dignidad de las personas como por su potencial para amplificar formas de acoso digital.

Share this post: