Anthropic, el laboratorio de inteligencia artificial que desarrolló el modelo Claude, ha alcanzado una valoración de 380.000 millones de dólares y se encuentra en un conflicto con el Pentágono. Este enfrentamiento surge tras la negativa de la compañía a permitir que su tecnología sea utilizada en armas autónomas o en vigilancia masiva, argumentando riesgos éticos y legales. La crisis se intensificó después de que Claude fuera empleado en la captura del presidente venezolano Nicolás Maduro en enero. Aunque Anthropic estaba de acuerdo con el uso de su IA para misiones militares, se opuso a su utilización en contextos que consideraba éticamente problemáticos.
El secretario de Defensa, Pete Hegseth, expresó que el modelo debía ser completamente utilizable para operaciones bélicas, lo que llevó a que Anthropic fuera clasificada como un riesgo para la cadena de suministro en contratos gubernamentales. En respuesta, la empresa ha demandado al Gobierno para revertir esta designación. A pesar de este conflicto, Claude ha visto un aumento significativo en su adopción, con millones de usuarios abandonando alternativas rivales.
Dario Amodei, CEO de Anthropic, defendió la postura de la empresa, afirmando que han mantenido su integridad y no han cedido a presiones políticas. La compañía sostiene que sus medidas de seguridad son esenciales para un despliegue responsable de la IA, que podría transformar radicalmente la sociedad y la economía. Sin embargo, también enfrenta desafíos internos, ya que su herramienta Claude Code genera la mayoría del código para futuros modelos de IA, lo que ha suscitado preocupaciones entre sus expertos sobre la velocidad de desarrollo.
Anthropic combina avances tecnológicos con un compromiso ético, donando parte de sus ganancias y entrenando a sus modelos para abordar dilemas morales complejos. A pesar de su enfoque cauteloso, la empresa sigue impulsando la IA hacia nuevas fronteras, lo que podría tener profundas implicaciones para el empleo, la seguridad y la gobernanza global. Analistas advierten que este enfrentamiento con la Administración podría cambiar la dinámica entre la tecnología privada y la seguridad nacional, desalentando a otras empresas a colaborar con el Pentágono.
¿Cómo afectará el conflicto entre Anthropic y el Pentágono a la futura regulación de la inteligencia artificial en el ámbito militar?
.
.
.
RESUMEN BASADO EN EL ARTÍCULO PUBLICADO EN TIME EL [Fecha]. Leer original