Ten cuidado con Gemini: los hackers usan la IA de Google para potenciar ciberataques
2026-02-17 - 06:15
Malas noticias para la compañía de Mountain View en lo que respecta a la ciberseguridad. En un nuevo informe del Grupo de Inteligencia de Amenazas, Google ha dado a conocer que los hackers están aprovechándose de Gemini para potenciar los ciberataques en múltiples fases, desde la investigación inicial de usuarios objetivos hasta el trabajo posterior a la vulneración. Según el informe, la actividad abarca clústeres vinculados a China, Corea del Norte, Rusia e Irán, teniendo en cuenta que las indicaciones por parte de los hackers incluyen desde la ingeniería social, la elaboración de perfiles, la traducción, la ayuda para la codificación, las pruebas de vulnerabilidad y la depuración cuando las herramientas fallan durante una intrusión. Por lo tanto, a raíz de este descubrimiento, los investigadores de Google consideran que el uso de la IA es una aceleración para modificar malware y potenciar ciberataques. Por poner varios ejemplos de la situación, el informe describe una actividad vinculada a China, en la que un operador de Google se hizo pasar por un experto en ciberseguridad y presionó a Gemini para automatizar el análisis de vulnerabilidades y elaborar planes de prueba específicos en un escenario ficticio. Mientras tanto, otro operador también usó Gemini repetidamente para la depuración, la investigación y la orientación técnica en relación con las intrusiones. Además, por si fuera poco, la compañía de Mountain View advierte de la extracción de modelos y la destilación de conocimiento, en la que los hackers con acceso autorizado a la API bombardean el sistema con indicaciones para replicar su rendimiento y razonamiento con la intención de utilizar ese conocimiento para entrenar a otro modelo de IA. La respuesta de Google Google afirma en el informe que ha desactivado las cuentas de los hackers y las infraestructuras vinculadas al abuso documentado de Gemini, ha agregado defensas específicas en los clasificadores del chatbot, e incluso ha realizado pruebas basadas en medidas de seguridad. Para los equipos de seguridad, la conclusión está relacionada con asumir que los ataques asistidos por IA se mueven con más rapidez, por lo que necesitan mejorar la iteración de las herramientas y ajustar los manuales de respuestas.