El Gobierno de Estados Unidos acusa a Anthropic de ser un riesgo para la Seguridad Nacional tras vetar el uso militar de su IA, en un conflicto legal que se origina en la negativa de la empresa a modificar sus términos de servicio.

El Gobierno de Estados Unidos ha presentado un escrito judicial en el que acusa a Anthropic de fijar «términos de servicio» inaceptables para la Administración de Donald Trump, tras la negativa de la compañía a permitir ciertos usos militares de su inteligencia artificial. En este documento, el Departamento de Justicia califica a Anthropic como un «riesgo para la cadena de suministro y la Seguridad Nacional» después de que la empresa demandara al Ejecutivo por dicha designación. La controversia se originó en negociaciones entre el Departamento de Defensa y Anthropic a comienzos de 2026, donde el Pentágono intentó incluir una cláusula que le permitiera utilizar la tecnología de la firma para cualquier propósito lícito, pero esta fue rechazada por Anthropic amparándose en sus políticas de uso de Claude.

El Departamento de Justicia argumenta que el comportamiento de Anthropic ha llevado a cuestionar su fiabilidad como socio del Departamento de Defensa en un ámbito tan sensible. Además, se expresa preocupación por el riesgo que podría suponer mantener el acceso de Anthropic a los sistemas técnicos y operativos de combate del Departamento de Defensa, dado que los sistemas de IA son vulnerables a la manipulación. Los letrados del Gobierno advierten que Anthropic podría desactivar su tecnología o alterar el comportamiento de su modelo durante operaciones de combate si considera que se están traspasando sus límites corporativos.

Anthropic, responsable del chatbot Claude, ha solicitado una orden judicial preliminar para frenar la prohibición dictada por el Departamento de Defensa mientras se resuelve el conflicto legal. El jefe del Pentágono, Pete Hegseth, ha calificado a la empresa como un «riesgo para la cadena de suministro y la Seguridad Nacional» debido a su negativa a permitir el uso de su IA para fines militares relacionados con la vigilancia doméstica masiva o el desarrollo de armas autónomas.

¿Qué implicaciones tendrá esta disputa legal para el futuro de la inteligencia artificial en aplicaciones militares en Estados Unidos?

.

.

.

RESUMEN BASADO EN EL ARTÍCULO PUBLICADO EN Europa Press EL Fecha no disponible. Leer original

Otras entradas que te pueden interesar