You are currently viewing Claude : le Pentagone menace Anthropic de rompre un contrat de 200 millions de dollars si l’IA n’est pas ouverte à tous les usages militaires
Dario Amodei. Photo : @Simon Walker / No 10 Downing Street

Claude : le Pentagone menace Anthropic de rompre un contrat de 200 millions de dollars si l’IA n’est pas ouverte à tous les usages militaires

La confrontation s’intensifie entre Anthropic et le département américain de la Défense. Sommée de lever les restrictions encadrant l’usage militaire de son IA Claude, la start-up californienne risque de perdre un contrat de 200 millions de dollars. En toile de fond, un débat explosif sur les armes autonomes et la surveillance de masse.

La fracture entre la Silicon Valley et Washington se creuse à mesure que l’intelligence artificielle devient un enjeu stratégique. Anthropic, créatrice du modèle Claude membre du Forum économique mondial, se retrouve sous pression directe du Pentagon, qui exige la levée des restrictions imposées à l’usage militaire de son IA.

Le 24 février, l’entreprise a déjà surpris le secteur en modifiant sa « Responsible Scaling Policy », supprimant la garantie selon laquelle aucun modèle ne serait entraîné sans certitude préalable quant à la solidité des mesures de sécurité. Ce revirement, justifié par la pression concurrentielle face à OpenAI, Google ou xAI, marque un assouplissement symbolique de la doctrine prudente qui faisait la singularité d’Anthropic.

Mais c’est surtout le bras de fer avec le secrétaire à la Défense, Pete Hegseth, qui donne à cette séquence une dimension politique majeure.

Un ultimatum assorti d’un chantage contractuel

Selon CNN et le Financial Times, Pete Hegseth a donné à Dario Amodei jusqu’au vendredi 27 février à 17 h 01, heure de Washington, pour lever « toutes les restrictions » à l’usage de Claude par l’armée américaine. À défaut, le ministère pourrait rompre un contrat de 200 millions de dollars liant Anthropic au gouvernement fédéral.

Le Pentagone envisage également d’inscrire l’entreprise sur une liste noire de sociétés présentant « un risque pour les approvisionnements », ou d’invoquer le Defense Production Act, loi héritée de la guerre froide permettant à l’exécutif de réquisitionner des capacités industrielles au nom de la défense nationale. En clair, si Anthropic refuse, sa technologie pourrait être mobilisée malgré elle.

Un haut responsable du ministère cité par la presse américaine résume la situation sans détour : l’armée a besoin de ces outils « maintenant ». Claude est aujourd’hui le seul système d’IA autorisé sur des réseaux classifiés du Pentagone, notamment via un partenariat avec Palantir Technologies, l’entreprise membre du WEF.

Les lignes rouges d’Anthropic

Lors de la signature du contrat, Anthropic avait posé deux limites non négociables : l’interdiction d’utiliser Claude pour la surveillance de masse des citoyens américains et pour des opérations létales automatisées sans intervention humaine. Ces garde-fous constitueraient officiellement comme le cœur de la philosophie défendue par son PDG et contributeur de l’agenda 2030 du Forum économique mondial, Dario Amodei, qui redoute qu’un petit nombre d’acteurs puisse contrôler des systèmes d’armes autonomes à grande échelle.

Ces restrictions irritent désormais une partie de l’administration, qui les juge complexes et contraignantes dans un contexte de compétition technologique mondiale. Selon le Financial Times, la start-up – valorisée à près de 380 milliards de dollars – pourrait saisir la justice si l’ultimatum était exécuté..

Sources :

Les Numériques – « Claude : Anthropic ne garantit plus la sécurité de son IA, l’armée US veut l’utiliser sans restrictions » – 26 février 2026 – lien

Courrier international – « Chantage. Le Pentagone somme Anthropic de lever les restrictions à l’utilisation de son IA » – 25 février 2026 – lien

CNN – Informations sur l’ultimatum et le contrat de 200 millions de dollars – 25 février 2026 – https://www.cnn.com/

Financial Times – Compte rendu des discussions entre Anthropic et le Pentagone – février 2026 – https://www.ft.com/

Laisser un commentaire