El pasado mes de marzo se conoció que Anthropic, desarrollador de Claude, estaba trabajando en un nuevo modelo de inteligencia artificial (IA) más potente que planteaba “riesgos de ciberseguridad sin precedentes”. Llamado Claude Mythos, este acaba de sufrir un acceso no autorizado.
Según informan desde Bloomberg, un grupo de usuarios ha podido acceder de manera no autorizada en el modelo Claude Mythos, el más peligroso de Anthropic y que la compañía lanzó de forma privada dentro de una iniciativa de ciberseguridad.
Los usuarios, que no han sido identificados, son miembros de un canal de Discord —un programa de comunicación gratuito que permite compartir chats de texto, voz y vídeo con amigos o comunidades— que se dedica a buscar información sobre modelos de IA que aún no se han lanzado.
El grupo de usuarios ha logrado acceder a Claude Mythos a través de un tercero, según han asegurado al mismo medio. De hecho, demostraron su hazaña compartiendo capturas de pantalla y un vídeo en los que supuestamente se ve cómo lo consiguieron.
El mismo medio también ha señalado que los usuarios usaron Mythos desde el primer momento, aunque su intención no es mala.

Logo de Claude junto al de Anthropic.
Omicrono
Según han asegurado, el grupo de usuarios tiene la intención de experimentar con el modelo de IA Claude Mythos, no causar daños.
Cabe señalar que Claude Mythos es un modelo de IA ideado por Anthropic que está diseñado específicamente para proteger el software crítico a partir de su capacidad para identificar vulnerabilidades de alta gravedad.
Unas vulnerabilidades que detecta en todos los principales sistemas operativos y navegadores web. Pero para que estas capacidades no se aprovechen de manera malintencionada, la firma anunció su lanzamiento en vista anticipada.
Esto quiere decir que no se ha publicado, sino que está dentro del ‘Proyecto Glasswing’, que reúne a compañías relevantes del sector tecnológico como Apple, Google, Amazon Web Services, Nvidia y Microsoft, quienes sí pueden utilizar Claude Mythos.
Además de ellos, también tienen acceso a este modelo de IA el Instituto de Seguridad de la IA (AISI, por sus siglas en inglés), que pertenece al Departamento de Ciencia, Innovación y Tecnología del gobierno del Reino Unido; y que pudo poner a prueba sus capacidades con evaluaciones controladas.
Unas evaluaciones que sirvieron para descubrir que Claude Mythos posee la capacidad de atacar de manera autónoma a empresas pequeñas que cuenten con protecciones débiles. Y es que Anthropic ya confirmó que se trataba de su modelo más peligroso.
