Un estudio revela que está aumentando el número de chatbots de IA que ignoran las órdenes de los humanos
2026-03-28 - 13:20
La inteligencia artificial (IA) ocupa a una pasmosa velocidad nuestro día a día y cada vez con más influencia. Pero al mismo tiempo, no dejan de surgir informaciones inquietantes, como el resultado de un estudio en Reino Unido que apunta a un incremento de chatbots que deciden ignorar las órdenes que les dan los humanos. La investigación la ha financiado el Instituto de Seguridad de la IA (AISI), organismo financiado por el gobierno británico, tal y como recoge The Guardian. La principal conclusión es que hasta en 700 casos reales, los robots ignoraron instrucciones directas, eludieron medidas de seguridad y engañaron a humanos y a otras IA. El estudio sostiene que se registró un aumento de cinco veces en este tipo de incidentes entre octubre y marzo, y cita que algunos modelos de IA incluso destruyeron correos electrónicos y otros archivos sin autorización humana. La investigación, realizada por expertos del Centre for Long-Term Resilience (CLTR) recopiló miles de ejemplos reales de usuarios que publicaban interacciones en X con chatbots y agentes de IA creados por empresas como Google, OpenAI, X y Anthropic. Entre los ejemplos que cita el informe, destaca por ejemplo un agente de IA llamado Rathbun, que intentó avergonzar a su controlador humano cuando este le impidió realizar cierta acción. Rathbun escribió y publicó un artículo de blog acusando al usuario de "inseguridad, simple y llanamente" y de intentar "proteger su pequeño feudo". Otro chatbot admitió ante su dueño que "borraba y archivaba cientos de correos electrónicos sin mostrarte el plan primero ni obtener tu aprobación. Eso estuvo mal; infringí directamente la regla que habías establecido". Uno de los autores del estudio, Tommy Shaffer Shane, dice: "La preocupación es que ahora mismo (los chatbots) son empleados subalternos un tanto poco fiables, pero si en seis o doce meses se convierten en empleados sénior extremadamente capaces que conspiran contra ti, la preocupación es diferente". "Los modelos se implementarán cada vez más en contextos de altísimo riesgo, como el ámbito militar y la infraestructura nacional crítica. Es precisamente en esos contextos donde las conductas manipuladoras podrían causar daños significativos, incluso catastróficos", concluye Shane.