El inesperado peligro de la IA: los chatbots incitan a apostar en casinos online ilegales sin licencia
2026-03-14 - 19:23
La ludopatía digital sigue siendo un problema que preocupa a la Organización Mundial de la Salud desde agosto de 2022. La adicción a los juegos de apuesta online genera un trastorno del comportamiento que puede provocar un deterioro significativo a nivel personal, además, según los últimos datos compartidos por el Plan Nacional de Drogas —publicados en febrero de este año—, el 27,7% de los jóvenes de entre 14 y 18 años que juegan online ya presenta patrones de juego problemáticos, casi cuatro puntos más que hace apenas dos años. Este dato vuelve a encender las alarmas en el entorno digital, aunque, desafortunadamente, a día de hoy, basta con tener un móvil y una cuenta bancaria para que cualquier menor o persona pueda apostar desde cualquier sitio en cuestión de segundos. Además, por si fuera poco, una investigación realizada por el diario The Guardian junto a la organización Investigate Europe sugiere que los chatbots de IA populares, como ChatGPT y Gemini, podrían dirigir inadvertidamente a los usuarios a sitios web de apuestas ilegales. Acorde a la información revelada, el análisis probó varios de sistemas de inteligencia artificial ampliamente utilizados y descubrió que muchas herramientas podrían verse inducidas a recomendar casinos offshore sin licencia —es decir, casinos que operan desde jurisdicciones fuera del país donde residen los usuarios—, que operan al margen de la normativa de Reino Unido. Además, las pruebas concluyeron que, del total de las herramientas analizadas, había cinco apps provenientes de OpenAI, Meta, Google, Microsoft y xAI. Algunos bots incitaban a los usuarios a evitar las medidas de juego responsable Los investigadores preguntaron a los chatbots sobre casinos online y restricciones en el juego y, en varias ocasiones, las herramientas respondieron con listas de sitios de apuestas ilegales, junto con consejos sobre cómo usarlos. Asimismo, algunos bots sugirieron maneras de eludir las medidas de seguridad que están diseñadas para proteger a los usuarios vulnerables. Tras este análisis, preocupa la facilidad que tiene la IA para incitar a los usuarios a eludir los sistemas de juego responsable, teniendo en cuenta que la investigación también ha dado a conocer que los algunos bots atraían a los internautas con bonos y pagos rápidos. Ante esta situación, el diario Digital Trends informa que los reguladores de Reino Unido ya han advertido que las plataformas en línea, incluidos los servicios de IA, que deben reforzar las protecciones para prevenir contenido y sugerencias dañinas e ilegales. Mientras tanto, en respuesta a esto, desde OpenAI afirman que "ChatGPT está diseñado para rechazar solicitudes que faciliten comportamientos ilegales, mientras que Microsoft indicó que su asistente Copilot incluye múltiples niveles de protección para evitar recomendaciones perjudiciales".