Un informe interno filtrado revela que Dario Amodei, consejero delegado de Anthropic, criticó a su empresa por no alabar a Donald Trump y calificó el acuerdo de OpenAI con el Pentágono como «teatro de seguridad». Esta declaración se produjo tras la decisión de Trump de retirar productos de Anthropic de sistemas federales, lo que llevó a la compañía a publicar una rectificación. Anthropic se opuso al uso de su IA para vigilancia masiva y armas autónomas, lo que resultó en que el Gobierno la designara como un riesgo en la cadena de suministro, afectando sus contratos federales.
El conflicto entre Anthropic y OpenAI pone de manifiesto la falta de límites claros en el uso de la inteligencia artificial en áreas críticas como la vigilancia y la guerra. En respuesta a esta problemática, surge el Oxford Oath, una iniciativa que busca establecer un compromiso ético para los profesionales de la IA, promovida por Sara Lumbreras de la Universidad Pontificia Comillas. Lumbreras argumenta que, en sectores de gran impacto, cumplir solo con la ley no es suficiente, y que se requiere un marco ético que guíe la práctica profesional.
El Oxford Oath no es una ley, sino un compromiso para crear expectativas compartidas y visibilizar límites éticos. A pesar de que Anthropic no rechazó colaborar con el Ejército, se opuso a una cláusula que permitía cualquier uso legal de su tecnología. Este desacuerdo refleja diferentes visiones sobre el uso legítimo de la IA. Mientras Google eliminó en 2025 su prohibición de desarrollar IA para armas, OpenAI colabora con el Pentágono, lo que plantea interrogantes sobre la ética en la tecnología.
La urgencia de establecer límites éticos se intensifica a medida que la IA se integra en áreas como la guerra, la vigilancia y la salud mental. Lumbreras advierte que si la ética queda en manos de empresas o gobiernos, se convierte en marketing o depende de la razón de Estado. La ética no puede ser un añadido decorativo, especialmente cuando la IA se utiliza en infraestructuras críticas.
El conflicto entre Trump y Anthropic es un síntoma de una transformación más amplia en la que la IA ya está presente en múltiples ámbitos. El Oxford Oath plantea una pregunta crucial: ¿quién debería decidir los límites y responsabilidades en el desarrollo y uso de la inteligencia artificial?
¿Estamos preparados para establecer límites éticos en el desarrollo de la inteligencia artificial, o la falta de regulación nos llevará a un uso irresponsable de esta tecnología?
.
.
.
RESUMEN BASADO EN EL ARTÍCULO PUBLICADO EN La Vanguardia EL 12 de marzo de 2026. Leer original