
La disputa entre la Administración Trump y Anthropic sobre el acceso del Pentágono a modelos de inteligencia artificial podría incrementar el riesgo de catástrofes provocadas por esta tecnología, según expertos en seguridad nacional.
En la última semana, la disputa entre la Administración Trump y Anthropic, un destacado laboratorio de inteligencia artificial en Estados Unidos, ha puesto de relieve la tensión entre el desarrollo tecnológico y la seguridad nacional. El conflicto gira en torno al acceso del Pentágono a los modelos de IA de Anthropic, lo que podría influir en el futuro de la inteligencia artificial y aumentar el riesgo de catástrofes. Expertos advierten que la aceleración en la adopción de esta tecnología, sin considerar sus peligros, podría llevar a un apocalipsis de la inteligencia artificial.
El Pentágono rompió relaciones con Anthropic debido a las exigencias del Gobierno de utilizar sus modelos para cualquier propósito legal. Dario Amodei, director ejecutivo de Anthropic, ha expresado su preocupación por el uso de la IA para la vigilancia de ciudadanos estadounidenses, dado que el Servicio de Inmigración y Control de Aduanas ya emplea inteligencia artificial para analizar datos y acelerar deportaciones. La extensión de este uso a la población general plantea serias implicaciones éticas y legales.
Además, Amodei ha manifestado su inquietud por el desarrollo de armas autónomas, argumentando que la inteligencia artificial es aún inmadura e impredecible. La falta de supervisión humana en su uso podría resultar en decisiones incontroladas y peligrosas. La respuesta de la Administración Trump ha sido agresiva, descalificando a Anthropic y amenazando con considerar a la empresa un riesgo para la cadena de suministro, lo que podría limitar su capacidad para trabajar con contratistas de defensa.
El contexto de esta disputa es complejo, ya que involucra no solo la seguridad nacional, sino también la innovación tecnológica en un entorno donde la vigilancia y el control se vuelven cada vez más relevantes. La situación actual refleja una falta de normas claras sobre el uso de la inteligencia artificial, lo que podría tener consecuencias significativas para el futuro de esta tecnología en Estados Unidos.
¿Cómo puede garantizarse un equilibrio entre el desarrollo de la inteligencia artificial y la protección de los derechos civiles en un contexto de creciente militarización de la tecnología?
.
.
.
RESUMEN BASADO EN EL ARTÍCULO PUBLICADO EN La Vanguardia EL 11/03/2026. Leer original