Anthropic investiga la reclamación de acceso no autorizado a la herramienta Claude Mythos AI

Anthropic está investigando una reclamación de que un pequeño grupo de personas obtuvo acceso a su modelo Claude Mythos, una herramienta de ciberseguridad que la empresa de IA considera demasiado poderosa para ser liberada al público.

La compañía declaró que está investigando un informe que alega acceso no autorizado a Claude Mythos Preview a través de uno de los entornos de un proveedor externo. Esto se produce tras un informe de Bloomberg que indica que usuarios en un foro privado lograron acceder al modelo sin los permisos normales. Existe una profunda preocupación sobre las capacidades de Mythos, aunque el principal funcionario cibernético del Reino Unido ha afirmado que las herramientas de IA avanzadas podrían ser un "beneficio neto" si la tecnología se asegura contra el uso indebido. Actualmente, no hay indicios de que actores maliciosos hayan conseguido apoderarse del modelo, y Anthropic afirma que no tiene evidencia de que sus sistemas estén afectados.

Sin embargo, el informe sobre el acceso por parte de usuarios no autorizados plantea interrogantes sobre la capacidad de las grandes empresas de IA para evitar que sus modelos avanzados caigan en manos equivocadas. Según Raluca Saceanu, directora ejecutiva de la empresa de ciberseguridad Smarttech247, esto fue "más probable a través de un uso indebido del acceso en lugar de un hackeo clásico". Anthropic ha liberado el modelo Mythos a algunas empresas tecnológicas y financieras para ayudarles a asegurar sus sistemas contra su capacidad reportada de explotar vulnerabilidades. Esto depende de que esas empresas aseguren que su propio acceso esté estrictamente controlado.

La persona ya tenía permiso para ver los modelos de IA de Anthropic a través del trabajo realizado para un contratista externo, según Bloomberg. El medio también informó que el grupo ha estado utilizando el modelo desde que obtuvo acceso, aunque no para hackear, porque no quieren ser detectados. "Cuando herramientas de IA poderosas son accedidas o utilizadas fuera de sus controles previstos, el riesgo no es solo un incidente de seguridad, sino la propagación de capacidades que podrían ser utilizadas para fraude, abuso cibernético u otra actividad maliciosa", afirmó Saceanu.

En un discurso en una gran conferencia de ciberseguridad, el jefe del Centro Nacional de Ciberseguridad del Reino Unido (NCSC) hizo un caso más positivo argumentando que las herramientas de IA pueden hacer las cosas más seguras. Richard Horne instó a los delegados de CyberUK a no temer nuevos ataques de IA, sino a asegurarse de que están haciendo lo básico en ciberseguridad correctamente. Horne advirtió que la IA de frontera está habilitando rápidamente el descubrimiento y explotación de vulnerabilidades existentes a gran escala, ilustrando cómo expondrá rápidamente dónde aún se deben abordar los fundamentos de la ciberseguridad.

El Ministro de Seguridad, Dan Jarvis, instó a las empresas de IA a trabajar con el gobierno en el "esfuerzo generacional" para asegurarse de que la IA se utilice para proteger redes críticas de los atacantes. Todos los modelos de IA más poderosos y avanzados, conocidos como IA de frontera, se desarrollan fuera del Reino Unido, con las empresas de primer nivel ubicadas en EE. UU. o China. Esto significa que el Reino Unido depende de empresas como Anthropic para acceder a Mythos y no tiene control sobre cómo se construye, entrena o libera.

El NCSC advierte que el ciberespacio es ahora "el frente interno" de defensa en el Reino Unido, con eventos recientes como los ataques de Irán que muestran que el ciberespacio juega un papel cada vez más importante en todos los conflictos modernos.
¿Qué implicaciones tiene el acceso no autorizado a herramientas de IA avanzadas para la seguridad cibernética global?
.

.

.

RESUMEN BASADO EN EL ARTÍCULO PUBLICADO EN BBC EL 19 horas atrás. Leer original

https://www.bbc.com/news/articles/cy41zejp9pko

Otras entradas que te pueden interesar