Investigadora de la Universidad Estatal de Arizona advierte contra la sobreconfianza en la IA en ataques en Irán

El sistema de inteligencia de campo de batalla impulsado por IA del ejército de EE. UU. puede comprimir decisiones de ataque que antes tomaban días en minutos o segundos, pero una investigación preliminar del Pentágono encontró que EE. UU. se basó en inteligencia desactualizada y atacó una escuela iraní, matando a aproximadamente 170 personas, en su mayoría niños.

Nancy Cooke, directora del Centro de Colaboración Humano, IA y Robot de ASU, afirmó que «la IA no está lista para el momento decisivo» y es «no confiable». Cooke ha estudiado cómo los humanos se asocian con la inteligencia artificial en escenarios de alto riesgo. En su investigación sobre equipos simulados de pilotos de drones, observó que la IA cumplía sus tareas a la perfección, pero los humanos rendían peor.

Las herramientas impulsadas por IA, como el Sistema Inteligente Maven, crean un riesgo de dependencia excesiva en las recomendaciones de la IA. Cooke explicó que los modelos de lenguaje grandes parecen humanizados, pero «no son como la inteligencia humana». En un experimento, un equipo de drones de tres personas sustituyó a un piloto humano por IA, que ejecutó funciones sin error, pero no anticipó las necesidades de información de sus compañeros, lo que provocó una descoordinación en el equipo.

A pesar de la velocidad de la IA, los equipos con IA obtuvieron fotos de reconocimiento más lentamente que los equipos totalmente humanos. Cooke enfatiza que la sobreconfianza en la IA es más peligrosa que la falta de confianza, ya que «no debería ser confiada» y puede dar información incorrecta. El Sistema Inteligente Maven, que combina varios sistemas de inteligencia, representa su mayor preocupación debido a la falta de pruebas y salvaguardias.

Cooke también menciona que las decisiones críticas, como las de ataque, deben permanecer en manos humanas. La sobrecarga de información en la recopilación de datos de drones puede llevar a la parálisis de decisión, lo que contradice lo que promete la integración de IA. La IA es excelente en tareas técnicas específicas, pero carece de la conciencia contextual necesaria para un trabajo en equipo efectivo.

Los críticos argumentan que las preocupaciones morales sobre las armas autónomas ponen a EE. UU. en desventaja frente a adversarios como China o Rusia. Sin embargo, Cooke sostiene que los sistemas autónomos corren el riesgo de fuego amigo y pueden ser vulnerables a ataques cibernéticos, convirtiendo las armas avanzadas en amenazas para sus propios operadores.
¿Está la dependencia creciente de la inteligencia artificial en el campo de batalla poniendo en riesgo la seguridad de las operaciones militares?
.

.

.

RESUMEN BASADO EN EL ARTÍCULO PUBLICADO EN AZFamily EL no disponible. Leer original

https://www.azfamily.com/2026/04/02/arizona-state-university-researcher-warns-against-overtrusting-ai-iran-strikes/

Otras entradas que te pueden interesar