Trump, el Pentágono y la purga de la IA incómoda

Desde que he empezado a escribir esta serie de artículos me he estado centrando en la parte más visible de la inteligencia artificial: desde el chatbot que redacta correos o del modelo que genera imágenes, hasta los sistemas que analizan datos críticos, apoyan decisiones médicas, gestionan infraestructuras, intervienen en procesos financieros, militares y administrativos, y condicionan ámbitos esenciales de la vida pública y privada.

La noticia importante -o mejor dicho preocupante- estaba en otro sitio: en el momento en que el poder (especialmente el que encarna Trump) empezara a decidir qué inteligencia artificial debía entrar en los sistemas militares y estratégicos del Estado, y cuál debía quedar fuera.

Y ese momento ha llegado; de hecho, ya ha sucedido.

Fue en el proceso del gobierno de Trump por decidir qué inteligencia artificial debía incorporarse a sus sistemas más sensibles cuando apareció el verdadero conflicto. Anthropic puso límites. Se negó a eliminar ciertas barreras relacionadas con usos especialmente delicados de su tecnología, entre ellos la vigilancia masiva y las armas autónomas. Es decir, dijo: NO. Y el sistema respondió como suele responder Mr. MAGA cuando alguien le marca límites: apartó al que ponía reservas y buscó a otro proveedor con menos prejuicios, más flexible, más obediente. Es ahí donde acaba de entrar OpenAI, dando un paso decisivo al incorporarse al circuito del poder estadounidense, también en áreas sensibles.

No estamos viendo solo una competición entre modelos de IA. Estamos viendo una selección política, estratégica y moral. La cuestión es otra: qué empresa está dispuesta a adaptarse sin demasiadas reservas a las exigencias del poder.

Porque si las empresas que intentan conservar ciertas líneas rojas acaban pagando un precio comercial o político por hacerlo, el mensaje que recibe todo el sector es nítido: la prudencia penaliza; la obediencia abre puertas. Y cuando ese mensaje se normaliza, ya no estamos hablando de tecnología. Estamos hablando de un nuevo reparto del poder.

Si el acceso a los grandes contratos públicos y militares depende cada vez más de aceptar determinadas condiciones más allá de principios fundamentales de ética y responsabilidad, entonces la presión real ya no recae solo sobre la calidad técnica del producto, sino sobre su compatibilidad con los intereses del aparato estatal.

La IA deja de ser una herramienta más o menos brillante al servicio del mercado y empieza a convertirse en infraestructura de poder. Deja de ser una promesa abstracta de productividad y pasa a ser una pieza del engranaje político, militar y administrativo. Y cuando una tecnología entra ahí, ya no basta con preguntar qué puede hacer. Hay que preguntar al servicio de quién opera, bajo qué límites y con qué capacidad de control.

La gran noticia no es que la inteligencia artificial entre en el Estado. La gran noticia es que el Estado —y en esta fase también la política de poder de Trump— parece preferir, cada vez más, la IA que acepta sus condiciones sin demasiadas reservas. No siempre la mejor. No siempre la más prudente. Sino la más compatible con su lógica del poder.

Y cuando una tecnología cruza esa línea, deja de ser solo una herramienta: empieza a convertirse en una estructura de obediencia.

Quiero acabar aclarando que esta peligrosa desviación no es, ni mucho menos, el fin de la innovación en inteligencia artificial. Todo lo contrario: su desarrollo seguirá avanzando con fuerza en infinidad de aplicaciones útiles, productivas y socialmente valiosas. Precisamente por eso conviene señalar el riesgo: no estamos ante el fracaso de la IA, sino ante la posibilidad de que una parte decisiva de su evolución quede subordinada a la lógica del poder.

Tomás Cascante
PUEDES LEER TODOS MIS ARTÍCULOS NOTANDUM, AQUÍ

.

Referencias

Reuters — “OpenAI to sell AI to US agencies through Amazon cloud unit” / “OpenAI venderá IA a agencias de EE. UU. a través de la nube de Amazon”

Reuters — “Anthropic digs in heels in dispute with Pentagon, source says” / “Anthropic se mantiene firme en su disputa con el Pentágono, según una fuente”

Reuters — “How the Anthropic-Pentagon dispute over AI safeguards escalated” / “Cómo se intensificó la disputa entre Anthropic y el Pentágono sobre las salvaguardas de IA”

Reuters — “Hegseth wants Pentagon to dump Anthropic’s Claude, but military users say it’s not so easy” / “Hegseth quiere que el Pentágono abandone Claude, de Anthropic, pero los usuarios militares dicen que no es tan fácil”

Reuters — “Pentagon to adopt Palantir AI as core US military system, memo says” / “El Pentágono adoptará la IA de Palantir como sistema militar central de EE. UU., según un memorando”

 

 

 

.

.

Otras entradas que te pueden interesar