«Una colección con la que sueña todo amante de los chicos»: así hacen negocio con la pornografía infantil hecha con IA
2026-03-26 - 03:50
La cantidad de fotografías y vídeos de pornografía infantil creados mediante inteligencia artificial se ha disparado en el último año. De acuerdo con un reciente estudio , elaborado por la organización británica Internet Watch Foundation (IWF), durante 2025 se detectaron en internet 8.029 contenidos hiperrealistas de esta clase, lo que representa un incremento del 14% respecto a las cifras registradas por IWF en 2024. El auge es aún más evidente en el vídeo: en 2025 se identificaron 3.443 piezas generadas con IA de este tipo frente a las 13 que localizó en 2024. De ellas, el 65% fueron clasificadas como de Categoría A, la más grave según la legislación británica, que engloba delitos como la violación, la tortura sexual o la bestialidad . Esto indica que esta clase de material ya se ha vuelto habitual en la red. «Cuando comenzamos a rastrear este problema, era una tecnología nueva, por lo que nuestros analistas apenas recibían denuncias, pero a medida que la tecnología ha mejorado y se ha vuelto más accesible, el número de denuncias no ha hecho más que aumentar», explica a ABC Catherine McShane, jefa de comunicación de IWF. Según se recoge en la investigación, titulada 'Daño sin límites: material de abuso sexual infantil generado por IA', los contenidos fueron localizados tanto en la 'dark web' como en plataformas habituales que utilizan los usuarios. La organización también ha visualizado conversaciones entre delincuentes que generan y comparten este contenido, y las tildan de «inquietantes». Por ejemplo, en sus páginas se narra cómo uno de los analistas de IWF vio a un criminal comentar la posibilidad de utilizar cámaras ocultas para grabar imágenes de menores y posteriormente transformarlas mediante herramientas de inteligencia artificial en vídeos de carácter sexual. «Estoy realmente impresionado con los resultados de las conversiones de imagen a vídeo. Creo que sería muy emocionante generar contenido desde la perspectiva de mi propia cámara», señaló en concreto. Los delincuentes también esperan que, en unos años, las herramientas de IA podrían comenzar a crear «películas» completas de abuso sexual infantil simplemente introduciendo una orden. «No se requerirán conocimientos de edición ni de tecnología», comentó un usuario de un foro de la web oscura. Evidentemente, también hay criminales que están tratando de hacer negocio con el material pedófilo . «Vídeos de chicos a la venta, vídeos raros, una colección con la que sueña todo amante de los chicos. Precio: 88 dólares. Solo se acepta Litecoin. Envíame un mensaje por Telegram para ver una muestra si te interesa», apunta un delincuente en una oferta de este tipo de material. McShane apunta que el equipo de analistas de IWF es de unas 15 personas y que sufren «limitaciones en cuanto a dónde pueden buscar»; ya que, para la elaboración del estudio, no accedieron «a contenido de pago ni a espacios cifrados, donde pueden haber más imágenes». Esto implica que la cantidad de material pedófilo hecho con IA que hay en la red es, sin duda, mucho mayor al que se recoge en la investigación. Respecto a los culpables del auge de este contenido, la jefa de comunicación de IWF apunta, además de a los criminales, a las grandes empresas tecnológicas , que siguen desarrollando la IA a velocidades de vértigo: «El afán por ser los primeros en lanzar nuevas tecnologías pone en riesgo a los niños. Es inaceptable lanzar productos al mercado global y luego intentar garantizar su seguridad como una medida improvisada. Si esto implica que los gobiernos y los organismos reguladores deben obligarlos a diseñar herramientas más seguras, entonces así debe ser». Desde la organización británica remarcan la importancia de que las empresas «diseñen plataformas y herramientas seguras desde el principio». Además, destaca que la legislación europea debe perseguir cualquier material de abuso sexual infantil generado por IA «sin excepción para uso personal; así como de los modelos optimizados para generarlo y los materiales didácticos destinados a ayudar a otros a conseguirlo». «Es necesario implementar y hacer cumplir rigurosamente la Ley de IA, señalando explícitamente que la pornografía infantil de IA representa un alto riesgo. Una aplicación adecuada de la Ley de IA debería permitir a las empresas tecnológicas colaborar con autoridades designadas, como la IWF, para evaluar los riesgos que plantean sus modelos», zanja McShane.