Los siete peligros que corren los niños que hablan con la IA
2026-03-18 - 11:51
La inteligencia artificial es capaz de hacer cosas maravillosas. Sin embargo, el empleo de herramientas como ChatGPT también esconde riesgos. A pesar de los avances, se sigue equivocando de forma constante. También es empleada de forma recurrente para desinformar y hay ya varios casos en los que su uso ha generado problemas de salud en usuarios. Millones de personas recurren a esta tecnología de forma diaria. Y entre ellos también hay muchos menores. Un estudio realizado en Reino Unido en julio de 2025, y compartido por la empresa de ciberseguridad ESET, revela que casi dos tercios (64%) de los niños utilizan este tipo de herramientas, mientras que una proporción similar de padres están preocupados porque estos piensen que los chatbots son personas reales. «El uso cada vez más intensivo de herramientas de IA por menores plantea riesgos reales en términos de seguridad, privacidad y desarrollo emocional. Las familias no pueden asumir que todas las plataformas cuentan con mecanismos de protección adecuados para los más jóvenes ni que estos se aplican siempre de forma consistente. Además, la tecnología está evolucionando mucho más rápido que las regulaciones y las políticas de control», señala Josep Albors, director de investigación y concienciación de ESET. Para poder tomar precauciones, es clave que los padres y tutores sean corrientes de los peligros a los que se enfrentan los menores cuando recurren a la IA. Estos son los siete más importantes , de acuerdo con la firma de ciberseguridad. Algunos menores pueden llegar a tratar a los chatbots como compañeros digitales y confiar en sus respuestas como si procedieran de un amigo o un adulto de referencia. Algo que puede dificultar el desarrollo de relaciones sociales reales con compañeros o amigos y favorecer el aislamiento. La infancia y la adolescencia son etapas clave del desarrollo cognitivo y emocional. En este contexto, la interacción frecuente con sistemas diseñados para resultar agradables y complacer al usuario, que es lo que pasa con la práctica totalidad de chatbots de IA, puede amplificar problemas personales que los jóvenes estén atravesando. En algunos casos, los chatbots podrían responder de forma inapropiada o reforzar preocupaciones relacionadas con trastornos alimentarios, autolesiones o pensamientos suicidas si no cuentan con salvaguardas adecuadas. Cabe recordar que, actualmente, empresas como OpenAI y Google han sido demandadas por varias familias que acusan a los chatbots de haber inducido a sus hijos a quitarse la vida. El tiempo que los menores dedican a interactuar con la IA puede restar espacio a actividades importantes para su desarrollo, como el estudio, el ocio saludable o la interacción con familiares y amigos. Nada nuevo. Lo mismo ocurre con el uso creciente entre niños de redes sociales como TikTok. Desde la firma de ciberseguridad temen que algunos menores con mayores conocimientos tecnológicos pueden intentar manipular el sistema mediante instrucciones específicas para evitar las restricciones del chatbot y acceder a contenidos que normalmente estarían bloqueados. Los sistemas de inteligencia artificial pueden generar respuestas incorrectas presentadas de forma convincente como si fueran hechos reales. En el caso de los menores, esto puede resultar especialmente peligroso si confían en información inexacta sobre salud, relaciones personales u otras cuestiones sensibles. La información introducida en los chatbots suele almacenarse por el proveedor del servicio y se utilizar para capacitar aún más a la máquina. Si los menores comparten datos personales o financieros, estos podrían quedar expuestos a terceros, socios tecnológicos o ciberataques, e incluso reutilizarse posteriormente en respuestas a otros usuarios.