Anthropic anunció que ha comenzado una prueba muy limitada de su modelo de IA más nuevo llamado Mythos, el cual se considera tan poderoso que la compañía advirtió que podría causar una interrupción generalizada si se liberara al público.
Anthropic está dando acceso a Mythos a más de 40 empresas tecnológicas, incluidas algunas rivales, para que lo prueben e identifiquen vulnerabilidades en los sistemas. Esto ha suscitado preocupaciones, ya que el modelo es especialmente eficaz para encontrar brechas en el software que los hackers podrían explotar. Según expertos en ciberseguridad, Mythos puede analizar códigos de software de manera automática, algo que podría llevar meses a un humano, en minutos u horas. La preocupación radica en que, si se libera al público, cualquier persona podría utilizar esta tecnología para hackear software.
Logan Graham, investigador de Anthropic, sugirió que, si este programa de IA se liberara completamente, podría obligar a actualizaciones de software generalizadas, exponiendo debilidades en todos los sistemas. Sin embargo, algunos expertos advierten que las afirmaciones de que esta tecnología es tan poderosa deben ser tomadas con precaución, ya que no es la primera vez que una empresa de IA hace declaraciones sobre el potencial disruptivo de su tecnología.
¿Hasta qué punto es justificable restringir el acceso a tecnologías de IA que podrían tener implicaciones significativas en la ciberseguridad y la privacidad?
.
.
.
RESUMEN BASADO EN EL ARTÍCULO PUBLICADO EN PBS News EL 9 de abril de 2026. Leer original
https://www.pbs.org/newshour/show/anthropics-powerful-new-ai-model-raises-concerns-about-high-tech-risks