La empresa de inteligencia artificial Anthropic ha entrado en conflicto con el Departamento de Defensa de EE.UU. al negarse a proporcionar acceso irrestricto a su tecnología. Este enfrentamiento se ha intensificado tras la captura del presidente venezolano Nicolás Maduro, donde se sospecha que se utilizó la herramienta de IA Claude para procesar datos y ayudar en la toma de decisiones. Aunque Anthropic no ha confirmado oficialmente su participación, la situación ha suscitado alarmas en Washington.
El subsecretario de Defensa, Emil Michael, expresó su preocupación sobre la posibilidad de que Anthropic pudiera desactivar su modelo durante una operación militar, lo que podría poner vidas en riesgo. En respuesta, el Pentágono exigió acceso total a la tecnología de Anthropic, a lo que la empresa se opuso, argumentando que no intentó limitar su uso en situaciones específicas.
Como resultado de esta negativa, el Pentágono ha clasificado a Anthropic como un «riesgo en la cadena de suministro», un término que históricamente se ha reservado para empresas extranjeras. Anthropic ha demandado al Pentágono, alegando que este ha excedido su autoridad y ha violado derechos básicos. Expertos legales consideran que la empresa tiene fundamentos sólidos para ganar en los tribunales. Esta controversia ha puesto de relieve las brechas en la gobernanza de la inteligencia artificial en operaciones militares, un tema que preocupa a muchos expertos.
¿Cómo debería regularse el uso de la inteligencia artificial en contextos militares para garantizar la ética y la seguridad?
.
.
.
RESUMEN BASADO EN EL ARTÍCULO PUBLICADO EN BBC Mundo EL 3 de enero. Leer original