Un informe de Google destapa cómo los ciberdelincuentes utilizan la IA como arma
2026-02-12 - 12:35
La inteligencia artificial es cada vez más común en la vida diaria y en las empresas, pero también está siendo utilizada, desde hace mucho tiempo, de forma incorrecta por actores maliciosos. Según explica un informe de Google Threat Intelligence Group (GTIG), algunos gobiernos, grupos criminales y otros atacantes están aprovechando la IA para hacer que sus ataques sean más eficaces, rápidos y difíciles de detectar. Dentro de estas prácticas se incluyen fraudes, phishing, espionaje digital o malware. Para poner en contexto, el GTIG es una unidad de Google que se centra en identificar, analizar, mitigar y eliminar tipologías enteras de ciberamenazas contra Alphabet, sus usuarios y sus clientes. En el mencionado informe, titulado "AI Threat Tracker", analizan cómo los atacantes utilizan la inteligencia artificial. Como tal, el informe está basado en investigaciones realizadas a finales del año pasado y deja varias conclusiones importantes. Intentos de copiar o extraer modelos de IA Desde GTIG y Google DeepMind detectaron actores que intentaban obtener información sobre cómo razonan los modelos de IA generativa para imitar su funcionamiento. En gran mayoría, estos intentos procedían de empresas privadas e investigadores académicos, y uno de los objetivos más frecuentes era la capacidad de razonamiento del modelo Gemini. Grupos respaldados por gobiernos usan la IA En concreto, el informe indica que la utilizan en todas las fases de un ataque, especialmente para el reconocimiento y la ingeniería social. Por ejemplo, explican que el grupo APT42, vinculado a Irán, hizo uso de la IA para buscar correos electrónicos oficiales y recopilar información para crear engaños creíbles. Por otra parte, el UNC2970 es un grupo vinculado a Corea del Norte, que utilizó a Gemini para analizar información pública y perfilar objetivos de alto valor, suplantando a reclutadores de empresas. Malware que integra IA Algo a destacar es que GTIG observó a finales de 2025 ejemplos como HONESTCUE, un software malicioso que utilizaba la API de Gemini para crear funciones e intentar evitar los sistemas de detección tradicionales. También se detectaron nuevos kits de phishing creados con la ayuda de IA, como CONBAIT, que suplantaba a un exchange de criptomonedas para robar credenciales.