Anthropic y OpenAI han desarrollado modelos de inteligencia artificial, Claude Mythos y GPT-5.5 respectivamente, que pueden comprometer sistemas operativos y ciberseguridad. Anthropic identificó fallos críticos en sistemas operativos y navegadores, lo que llevó a una coalición de empresas como Microsoft, Apple, Google, Nvidia y Amazon a explorar sus capacidades peligrosas.
Sam Altman, director ejecutivo de OpenAI, criticó la estrategia de marketing de Anthropic, considerándola como “marketing basado en el miedo”. OpenAI presentó GPT-5.5, que incluye una versión llamada Cyber, restringida a usuarios seleccionados que son “defensores cibernéticos críticos”. Esta versión puede realizar pruebas de penetración, identificar y explotar vulnerabilidades, y realizar ingeniería inversa de malware.
El Instituto de Seguridad de la IA (AISI) del Reino Unido evaluó GPT-5.5 y encontró que su rendimiento es comparable al de Mythos Preview. En pruebas de alto nivel, GPT-5.5 alcanzó un 71,4%, superando al 68,6% de Mythos. En una prueba de extracción de datos de 32 pasos, GPT-5.5 tuvo éxito en 3 de 10 intentos, mientras que Mythos logró 2 de 10. Ambos modelos fallaron en simular un ataque a un software de control de una central eléctrica.
¿Estamos preparados para enfrentar las implicaciones de estas tecnologías de inteligencia artificial en la ciberseguridad?
.
.
.
RESUMEN BASADO EN EL ARTÍCULO PUBLICADO EN La Vanguardia EL 03/05/2026. Leer original
https://www.lavanguardia.com/vida/20260503/11528230/gpt-5-5-peligroso-mythos.html
