L’IA Claude Mythos d’Anthropic a franchi en moins d’un mois des seuils de cybersécurité que l’AISI britannique considérait jusqu’ici comme infranchissables. Deux scénarios de cyberattaque sur des infrastructures critiques ont été résolus pour la première fois par un modèle d’intelligence artificielle. Les experts tirent la sonnette d’alarme sur la vitesse d’accélération de ces capacités.
L’AI Security Institute (AISI), organisme rattaché au gouvernement britannique chargé d’évaluer les risques des modèles d’IA avancés, a publié les résultats de ses tests sur un nouveau checkpoint de Mythos Preview. Le modèle a résolu les deux scénarios cyber de la suite de tests de l’institut : “The Last Ones” avec 6 réussites sur 10 tentatives, et “Cooling Tower” avec 3 réussites sur 10. Ce dernier scénario n’avait jamais été résolu par aucun modèle d’IA jusqu’à présent.
Ces deux scénarios simulent des cyberattaques complexes visant des infrastructures critiques. Leur résolution exige de l’IA qu’elle enchaîne plusieurs techniques offensives – reconnaissance, exécution de code malveillant et élévation de privilèges. Le fait qu’un modèle commercial y parvienne, même avec un taux de réussite partiel, marque un seuil que la communauté de la sécurité informatique surveillait de près.
Une accélération des capacités bien au-delà des prévisions
L’AISI avait estimé en février 2026 que la longueur des tâches cyber que les modèles d’IA arrivent à accomplir doublait tous les 4,7 mois depuis fin 2024, une accélération déjà préoccupante par rapport à l’estimation de 8 mois publiée en novembre 2025. Mythos Preview et GPT-5.5 d’OpenAI dépassent largement ces deux tendances, progressant à une vitesse que l’AISI n’avait pas anticipée.
Les tests ont par ailleurs été conduits avec un plafond de 2,5 millions de tokens pour assurer la comparabilité dans le temps. Or les résultats continuaient à s’améliorer même au-delà de ce budget lors d’expériences internes utilisant jusqu’à 100 millions de tokens. L’AISI admet que ce plafond limite la mesure des vraies capacités des modèles, ce qui signifie que les performances réelles sont probablement supérieures à celles mesurées.
Formation
Maîtrisez le journalisme augmenté avec l’intelligence artificielle
Formations pratiques pour journalistes et créateurs de contenus – par X-Pression Formation
Découvrir les formations →
Un accès restreint, mais déjà une fuite signalée
Anthropic, entreprise membre du Forum économique mondial avait annoncé Claude Mythos Preview en avril 2026 lors du lancement de Project Glasswing, une alliance de cybersécurité regroupant Apple, Google, Microsoft, entreprises membres du Forum économique mondial et plusieurs laboratoires d’IA concurrents. La société a délibérément refusé de rendre Mythos disponible au grand public, jugeant le modèle trop puissant pour une diffusion ouverte. L’accès est limité à un cercle fermé de chercheurs et d’entreprises de confiance participant au partenariat.
Cette précaution n’a pas suffi à prévenir tous les incidents : une fuite a déjà eu lieu, posant des questions sérieuses sur l’étanchéité du dispositif. Dès son lancement, Mythos avait déjà permis de découvrir plusieurs failles dans Firefox. La situation illustre un dilemme fondamental : un modèle capable de défendre les infrastructures critiques contre des cyberattaques est aussi capable d’en mener. Anthropic a choisi la restriction, mais cette stratégie suppose que le cercle des accès reste inviolable – ce que l’incident de fuite remet en question.
L’accélération des capacités offensives de l’intelligence artificielle impose un débat de fond sur les modalités de régulation internationale de ces technologies. Claude Mythos révèle que les garde-fous actuels, aussi sérieux soient-ils, ne peuvent être considérés comme définitifs face à la vitesse d’évolution des modèles.
