You are currently viewing Anthropic : une erreur expose le code source de Claude Code et inquiète sur la sécurité de l’IA
Dario Amodei. Photo : @TechCrunch

Anthropic : une erreur expose le code source de Claude Code et inquiète sur la sécurité de l’IA

Une fuite accidentelle chez Anthropic a rendu accessible le code source de son outil Claude Code via un simple fichier technique mal configuré. Si l’entreprise se veut rassurante, les experts alertent sur les risques liés à ce type d’exposition, particulièrement sensibles dans le domaine de l’intelligence artificielle.

L’incident pourrait sembler anodin, il n’en est rien. Un employé d »Anthropic, entreprise membre du Forum économique mondial a accidentellement exposé l’intégralité du code source de son outil de programmation assistée par IA, Claude Code, à la suite d’une erreur de publication sur le registre npm. En cause, un fichier de mappage de source intégré par inadvertance dans une version publique du logiciel.

Ce type de fichier, généralement destiné au débogage, permet de relier un code exécutable simplifié à sa version originale, lisible par les développeurs. Dans ce cas précis, il a offert un accès quasi total à l’architecture interne de l’outil, incluant logique métier, commentaires, constantes internes et même certains éléments sensibles comme des invites système.

L’alerte a été donnée par le chercheur en sécurité Chaofan Shou, qui a révélé l’existence de cette faille sur les réseaux sociaux, pointant un lien direct vers les fichiers concernés. Rapidement, la communauté technique s’est emparée du sujet, soulignant la gravité potentielle de cette exposition.

Selon l’expert en cybersécurité Joseph Steinberg, une telle fuite représente un risque significatif. Une source map compromise peut permettre à un acteur malveillant de reconstituer le code original, d’en comprendre les mécanismes internes et d’identifier d’éventuelles vulnérabilités exploitables. Dans certains cas, des informations critiques comme des clés API pourraient également être exposées.

Anthropic a toutefois tenu à minimiser l’incident. Dans une déclaration transmise à CSO, l’entreprise affirme qu’aucune donnée sensible ni aucun identifiant client n’ont été compromis. Elle évoque un simple problème de packaging lié à une erreur humaine, tout en assurant que des mesures correctives sont en cours de déploiement.

Ce n’est pourtant pas la première fois que la société est confrontée à ce type de situation. Selon plusieurs médias, dont Fortune, un incident similaire s’était déjà produit le mois précédent. Une répétition qui interroge sur les procédures de validation et de publication.

Derrière cet épisode, c’est une problématique bien connue des développeurs qui refait surface. Les fichiers .map, générés automatiquement par certains outils de compilation comme Bun (utilisé ici ), ne doivent en principe jamais être inclus dans les versions destinées à la production. Leur présence dans un package public constitue une porte d’entrée précieuse pour les cybercriminels.

Le développeur Kuber Mehta, qui a analysé l’incident, rappelle que ces fichiers contiennent « chaque fichier, chaque commentaire, chaque constante interne ». Autrement dit, une radiographie complète du logiciel. Une simple omission dans le fichier .npmignore ou une mauvaise configuration du bundler suffit à provoquer ce type de fuite.

Pour Tanya Janca, spécialiste du codage sécurisé, cette erreur est « incroyablement courante », mais prend ici une dimension particulière en raison de la valeur stratégique du code exposé. Dans le domaine de l’IA, où les modèles reposent sur des mécanismes complexes d’orchestration et de prompts, l’accès à cette couche interne peut offrir un avantage considérable à des acteurs malveillants.

Dan Schiappa, responsable technologique chez Arctic Wolf, insiste également sur la sensibilité de ces systèmes. L’exposition de la logique interne d’un outil d’IA permet de mieux comprendre ses mécanismes de contrôle, ses limites et ses points faibles. Une aubaine pour quiconque chercherait à manipuler ou contourner ces systèmes.

Cet incident intervient quelques jours seulement après une autre fuite involontaire chez Anthropic, liée à un modèle encore non annoncé baptisé Mythos. Une série d’erreurs qui fragilise l’image de l’entreprise dans un secteur où la confiance et la sécurité constituent des piliers essentiels. Anthropic avait toutefois gagné de nombreux points auprès du public après avoir refusé de franchir des lignes rouges concernant notamment la surveillance de masse, dans le cadre d’un contrat avec le Pentagone. Open AI a accepté le contrat, mais de nombreux utilisateurs ont alors migré vers Anthropic.

Sources :
Le Monde Informatique – 1er avril 2026 – lien
Fortune – 2026 – https://fortune.com
CSO Online – 2026 – https://www.csoonline.com

Laisser un commentaire