
El Mobile World Congress 2026 destaca la dualidad de la inteligencia artificial entre innovación y control militar, evidenciada por el conflicto entre el Pentágono y Anthropic sobre el uso de su modelo Claude.
Durante el Mobile World Congress (MWC) 2026 en Barcelona, se ha puesto de manifiesto la creciente intersección entre la inteligencia artificial (IA) y las operaciones militares. La conversación ha girado en torno a la productividad y la automatización, pero también ha revelado el uso de la IA en contextos bélicos. Un ejemplo destacado es Lavender, un sistema de IA empleado por Israel en Gaza, que analiza datos de vigilancia para identificar posibles terroristas, con un margen de error del 10%, lo que podría resultar en miles de muertes inocentes.
Las tensiones entre el Departamento de Guerra de EE.UU. y Anthropic, la empresa detrás del modelo de lenguaje Claude, han puesto de relieve la preocupación sobre el uso ético de la tecnología. El Pentágono busca utilizar la IA sin restricciones, mientras que Anthropic aboga por limitaciones que impidan la vigilancia masiva y el control de armas autónomas. Las negociaciones se rompieron cuando Anthropic se negó a aceptar condiciones que consideraba peligrosas.
Este conflicto subraya la complejidad de la gobernanza de la IA, donde el debate no es solo tecnológico, sino político. La legislación estadounidense permite la vigilancia masiva bajo ciertas condiciones, lo que plantea interrogantes sobre la definición de «usos legales». La soberanía tecnológica se ha convertido en un tema recurrente en el MWC, con modelos de gobernanza que varían entre EE.UU., China y Europa, cada uno con sus propias implicaciones éticas y sociales.
¿Cómo se puede garantizar un uso ético y responsable de la inteligencia artificial en contextos militares y de vigilancia sin comprometer la innovación?
.
.
.
RESUMEN BASADO EN EL ARTÍCULO PUBLICADO EN La Vanguardia EL 8 de marzo de 2026. Leer original