En solo tres meses, el hacking impulsado por IA ha pasado de ser un problema incipiente a una amenaza a escala industrial, según un informe de Google.
Los hallazgos del grupo de inteligencia de amenazas de Google contribuyen a una discusión global creciente sobre cómo los nuevos modelos de IA son extremadamente hábiles en la codificación y se están convirtiendo en herramientas poderosas para explotar vulnerabilidades en una amplia gama de sistemas de software. El informe indica que grupos criminales, así como actores vinculados a estados de China, Corea del Norte y Rusia, parecen estar utilizando modelos comerciales, incluidos Gemini, Claude y herramientas de OpenAI, para refinar y escalar ataques.
John Hultquist, analista jefe del grupo, afirmó que existe una percepción errónea de que la carrera por la vulnerabilidad de la IA es inminente, señalando que la realidad es que ya ha comenzado. Los actores de amenazas están utilizando IA para aumentar la velocidad, escala y sofisticación de sus ataques, lo que les permite probar sus operaciones, persistir contra objetivos, construir malware mejorado y realizar muchas otras mejoras.
El mes pasado, la empresa de IA Anthropic se negó a lanzar uno de sus modelos más nuevos, Mythos, tras afirmar que tenía capacidades extremadamente poderosas y representaba una amenaza para gobiernos e instituciones financieras si caía en manos equivocadas. Anthropic declaró que Mythos había encontrado vulnerabilidades de día cero en todos los principales sistemas operativos y navegadores web, lo que requería una acción defensiva coordinada sustancial en toda la industria.
Sin embargo, el informe de Google encontró que un grupo criminal estaba a punto de aprovechar una vulnerabilidad de día cero para llevar a cabo una campaña de “explotación masiva”, utilizando un modelo de lenguaje de IA que no era Mythos. Además, se encontró que los grupos estaban experimentando con OpenClaw, una herramienta de IA que se volvió viral en febrero.
Steven Murdoch, profesor de ingeniería de seguridad en University College London, indicó que las herramientas de IA podrían ayudar tanto a la defensa como a los hackers en ciberseguridad. A pesar de esto, persisten dudas sobre si la IA está fortaleciendo la economía en general. El Ada Lovelace Institute (ALI) ha advertido sobre las suposiciones de un aumento de productividad en el sector público debido a la IA, a pesar de que el gobierno del Reino Unido ha estimado un ahorro de £45 mil millones en beneficios de productividad.
El informe del ALI sugiere que muchos estudios sobre aumentos de productividad relacionados con la IA se centran en ahorros de tiempo o costos, sin considerar resultados como servicios mejorados o bienestar del trabajador. También se mencionan aspectos problemáticos de tales investigaciones, como si las proyecciones de eficiencia realmente se concretan en el mundo real.
¿Cómo pueden las organizaciones protegerse frente a la creciente amenaza del hacking impulsado por IA?
.
.
.
RESUMEN BASADO EN EL ARTÍCULO PUBLICADO EN The Guardian EL 11 de mayo de 2026. Leer original
https://www.theguardian.com/technology/2026/may/11/ai-powered-hacking-industrial-scale-threat-three-months-google