La administración Trump ha llegado a un acuerdo con la industria para instaurar un control previo a los modelos de IA, buscando evaluar los riesgos que estos modelos pueden suponer para la seguridad nacional. Este cambio de actitud se produce tras la aparición de Mythos, un modelo de Anthropic que puede detectar y atacar vulnerabilidades de ciberseguridad.
El vicepresidente del Gobierno, Carlos Cuerpo, ha solicitado al Eurogrupo que Europa tenga acceso a modelos como Mythos, advirtiendo que la falta de acceso coloca a Europa en desventaja tecnológica y de seguridad. La ausencia de estas herramientas de ciberseguridad representa un riesgo significativo para gobiernos y sectores públicos y privados europeos, incluyendo bancos y defensa.
La administración Trump está considerando la creación de un sistema de revisión previa para modelos de IA avanzados, un cambio notable respecto a su política anterior de desregulación. Este sistema permitiría al gobierno examinar modelos de IA antes de su lanzamiento, especialmente aquellos con implicaciones en ciberseguridad y defensa. Mythos, que no ha sido abierto al público, ya ha sido utilizado por la NSA para analizar vulnerabilidades en sistemas federales.
Anthropic ha cerrado un acuerdo con SpaceX para acceder al superordenador Colossus, lo que permitirá a la compañía escalar su herramienta de IA, Claude. Este acuerdo proporciona acceso a más de 220.000 GPU de Nvidia, aumentando significativamente la capacidad de computación de Anthropic.
¿Cómo afectará la nueva regulación de IA en Estados Unidos a la competitividad tecnológica de Europa?
.
.
.
RESUMEN BASADO EN EL ARTÍCULO PUBLICADO EN Enplater EL 10 de mayo de 2026. Leer original
https://www.elnacional.cat/oneconomia/es/on-ia/geopolitica-computacion-agentes_1636939_102.html