El Grupo de Inteligencia de Amenazas de Google informó que los hackers están utilizando modelos de IA como OpenClaw para descubrir y explotar vulnerabilidades de software de día cero. En un informe, el grupo afirmó haber descubierto y probablemente frustrado un ataque desarrollado por IA.
Google indicó que tiene "alta confianza" en que registró a hackers utilizando un modelo de IA para encontrar y explotar una vulnerabilidad de día cero, creando una forma de eludir la autenticación de dos factores. "El actor criminal planeaba usarlo en un evento de explotación masiva, pero nuestro descubrimiento proactivo puede haber prevenido su uso", escribió Google, sin revelar el nombre del grupo de hackers. Google no cree que se haya utilizado su modelo interno Gemini.
Los hallazgos subrayan cómo los hackers están utilizando herramientas de IA disponibles como OpenClaw para explotar fallos de software de maneras que pueden ser particularmente dañinas para empresas, agencias gubernamentales y otras organizaciones, a pesar de que las empresas de ciberseguridad invierten miles de millones de dólares en fortalecer sus defensas. En abril, Anthropic retrasó el lanzamiento de su modelo Mythos, citando preocupaciones de que criminales y adversarios podrían usar la herramienta para identificar y aprovechar vulnerabilidades de software de décadas. Las preocupaciones provocaron reacciones en la industria y llevaron a reuniones en la Casa Blanca con líderes tecnológicos y empresariales. Anthropic ha lanzado desde entonces el modelo a un grupo selecto de evaluadores, incluyendo a Apple, CrowdStrike, Microsoft y Palo Alto Networks. La semana pasada, OpenAI anunció que GPT-5.5-Cyber, una variación de su último modelo, se está implementando en una capacidad de vista previa limitada para equipos de ciberseguridad seleccionados. En el informe del lunes, Google destacó varios ejemplos de cómo los hackers ya están utilizando herramientas como OpenClaw para encontrar vulnerabilidades, lanzar ciberataques y desarrollar malware. Grupos vinculados a China y Corea del Norte "demostraron un interés significativo en capitalizar la IA para el descubrimiento de vulnerabilidades", dijo el informe.
¿Cómo pueden las organizaciones protegerse de las amenazas emergentes que utilizan inteligencia artificial para explotar vulnerabilidades de software?
.
.
.
RESUMEN BASADO EN EL ARTÍCULO PUBLICADO EN CNBC EL lunes. Leer original
https://www.cnbc.com/2026/05/11/google-thwarts-effort-hacker-group-use-ai-mass-exploitation-event.html