Claude Mythos no se lanza al mercado: solo 40 organizaciones acceden a una tecnología capaz de encontrar y explotar fallos críticos con una precisión inédita.
La industria cruza un umbral delicado: por primera vez, una gran tecnológica admite que su IA es demasiado potente —y potencialmente peligrosa— para abrirla al público general. Mythos no solo detecta vulnerabilidades: las convierte en exploits funcionales, acelerando un cambio de escala que puede redefinir la seguridad digital global. Anthropic ya no compite únicamente en el terreno de los asistentes conversacionales. Con el lanzamiento restringido de Claude Mythos Preview, la compañía entra de lleno en una dimensión mucho más crítica: la gestión del riesgo sistémico en la era de la inteligencia artificial. La firma fundada por Dario Amodei ocupa el centro del debate tecnológico global, limitando su uso a un grupo cerrado de unas 40 organizaciones vinculadas a la ciberseguridad y a infraestructuras críticas. Según la propia compañía, Mythos es capaz de detectar y explotar vulnerabilidades en software real con una eficacia sin precedentes. Abrirlo al público podría poner en riesgo buena parte de los sistemas digitales que sostienen internet, empresas y administraciones.
El acceso a Mythos se articula a través de Project Glasswing, un programa que reúne a actores clave del ecosistema tecnológico y financiero como Amazon Web Services, Apple, Google, Microsoft o Nvidia. El objetivo es utilizar el modelo en entornos controlados para analizar sistemas propios y software de código abierto, identificar vulnerabilidades críticas y corregirlas antes de que estas capacidades se generalicen. Anthropic ha comprometido hasta 100 millones de dólares en créditos de uso, además de 4 millones en ayudas a organizaciones vinculadas al ecosistema open source. Mythos no se limita a sugerir código o a asistir a desarrolladores. Según Anthropic, es capaz de analizar sistemas complejos, detectar puntos débiles, priorizar vulnerabilidades explotables y generar los pasos técnicos necesarios para convertirlas en ataques reales. En el banco de pruebas CyberGym, Mythos alcanza un 83,1% de eficacia, frente al 66,6% de versiones anteriores. La compañía asegura haber identificado miles de vulnerabilidades de alta severidad, incluyendo fallos en sistemas como OpenBSD, FFmpeg o el núcleo de Linux.
En las últimas semanas, Anthropic ha estado en el foco por la filtración accidental de código y documentos internos relacionados con Claude Code y Mythos, así como por tensiones con el Departamento de Defensa de Estados Unidos sobre los límites del uso militar de sus modelos. Según informaciones publicadas por Reuters, el Pentágono habría presionado para ampliar los usos permitidos, mientras la compañía se ha resistido a eliminar salvaguardas vinculadas a armas autónomas y vigilancia masiva. Gran parte de la infraestructura digital global depende de software libre mantenido por equipos pequeños y con recursos limitados. Anthropic lo reconoce al incluir en su programa entidades como OpenSSF o la Apache Software Foundation. Si la inteligencia artificial puede acelerar tanto el descubrimiento como la explotación de fallos, la defensa también debe automatizarse.
La gran incógnita es si esta estrategia llega a tiempo. Anthropic sostiene que aún existe margen para que los defensores ganen ventaja si acceden antes a estas capacidades. Pero también admite que la ventana entre descubrir una vulnerabilidad y explotarla se está reduciendo de forma acelerada. Claude Mythos no es solo un nuevo modelo. Es una señal de alerta.
¿Está la industria tecnológica preparada para enfrentar los riesgos de una inteligencia artificial que redefine la ciberseguridad?
.
.
.
RESUMEN BASADO EN EL ARTÍCULO PUBLICADO EN Algoritmo Transparente EL abr 13, 2026. Leer original
https://saulgordillo.substack.com/p/anthropic-encierra-su-ia-mas-peligrosa