You are currently viewing Intelligence artificielle : Claude banni, OpenAI adoubé, la semaine où Washington a redéfini les règles du jeu
Sam Altman, PDG d'Open AI. Photo : @World Economic Forum / Benedikt von Loebell

Intelligence artificielle : Claude banni, OpenAI adoubé, la semaine où Washington a redéfini les règles du jeu

En l’espace de quelques heures, l’administration américaine a exclu Anthropic de tous les contrats fédéraux tout en signant un accord stratégique avec OpenAI. Au cœur du bras de fer : l’usage militaire de l’intelligence artificielle et les lignes rouges posées sur les armes autonomes et la surveillance de masse. Une séquence qui marque un tournant pour l’IA civile, désormais pleinement intégrée aux enjeux de défense.

Ce qui s’est joué vendredi soir à Washington dépasse largement le cadre d’un différend contractuel. En quelques heures, l’administration du contributeur de l’agenda 2030 du Forum économique mondial, Donald J. Trump a ordonné à l’ensemble des agences fédérales de cesser d’utiliser la technologie développée par Anthropic, l’entreprise à l’origine de l’IA Claude, membre du FEM. Dans le même temps, OpenAI, également membre du WEF annonçait la signature d’un accord avec le Pentagone pour le déploiement de ses modèles sur des réseaux classifiés.

Un revirement spectaculaire

Le 27 février, en quelques heures, la situation a basculé. En milieu de journée, le contributeur de l’agenda 2030 du Forum économique mondial, Sam Altman a affirmé publiquement partager les lignes rouges d’Anthropic et appellé à l’apaisement. À 15h47, Donald Trump interdisait Anthropic dans l’ensemble des contrats fédéraux, l’accusant de mettre des vies en danger.

À 17 h 01, le délai fixé par le secrétaire à la Défense Pete Hegseth expirait sans compromis. Quelques heures plus tard, un message publié sur Truth Social par Donald Trump enjoignait toutes les agences fédérales à rompre leurs contrats avec Anthropic, avec un délai de transition de six mois pour les structures dépendantes. Dans la foulée, le Pentagone a classé l’entreprise comme “risque pour la chaîne d’approvisionnement de la sécurité nationale”, une désignation habituellement réservée à des acteurs étrangers jugés sensibles.

Deux lignes rouges, et un refus

La veille, le PDG d’Anthropic, Dario Amodei, avait détaillé publiquement les raisons du blocage. Deux usages posaient problème selon lui : le développement d’armes entièrement autonomes sans intervention humaine dans la chaîne de décision, et la surveillance de masse des citoyens américains. Pour le reste, l’entreprise affirmait coopérer avec l’armée, y compris sur des réseaux classifiés.

Dans son communiqué, Amodei soulignait une contradiction : l’entreprise était à la fois qualifiée de menace pour la sécurité nationale et présentée comme indispensable à celle-ci. “Nous ne pouvons pas, en bonne conscience, accepter leur demande”, écrivait-il, actant un refus formel.

La réaction de Washington fut immédiate. Le sous-secrétaire à la Défense, Emil Michael, a publiquement attaqué le dirigeant d’Anthropic. Donald Trump a, pour sa part, accusé l’entreprise d’idéologie partisane et menacé de “conséquences civiles et pénales majeures” en cas de non-coopération durant la période de transition.

Un précédent pour toute l’industrie

L’affaire ne se limite pas à un conflit entre une start-up de l’IA et le pouvoir exécutif. Plus de 200 employés de Google ont adressé une lettre interne réclamant des restrictions comparables pour l’usage militaire de Gemini. Le débat sur les lignes rouges de l’intelligence artificielle militaire s’installe au cœur des géants technologiques.

Anthropic a annoncé son intention de contester en justice la qualification de “supply chain risk”, estimant la décision juridiquement infondée et dangereuse pour toute entreprise américaine négociant avec l’État fédéral. La bataille s’annonce à la fois judiciaire et politique.

Le Pentagone signe avec OpenAI sous les mêmes conditions

Le retournement est intervenu dans la soirée 23h. Sam Altman a annoncé sur X qu’OpenAI avait conclu un accord avec le Pentagone pour déployer ses modèles, notamment ChatGPT, sur des réseaux classifiés. Les termes du contrat reprennent précisément les deux conditions mises en avant par Anthropic : interdiction de la surveillance de masse et maintien d’une responsabilité humaine dans tout usage de la force.

Altman a même appelé à ce que ces garanties soient étendues à l’ensemble des laboratoires d’intelligence artificielle. Le secrétaire à la Défense a relayé l’annonce sans commentaire.

Le contraste est saisissant. Les conditions que l’administration a refusées à Anthropic ont été acceptées pour OpenAI quelques heures plus tard. Pour nombre d’observateurs, il s’agit d’une hypocrisie flagrante : quelques heures après avoir exprimé sa confiance envers Anthropic, Sam Altman officialise un partenariat qui positionne OpenAI comme acteur clé de l’IA du Pentagone. D’autres estiment au contraire qu’il s’agit d’une manœuvre stratégique habile, permettant d’obtenir les mêmes garanties éthiques sans entrer dans un affrontement public avec l’administration. Enfin, certains s’inquiètent de l’amélioration technologique de systèmes militaires, notamment des drones de plus en plus autonomes.

Le contexte

Plus de 700 employés d’OpenAI et de Google venaient de signer des lettres de soutien à Anthropic, mais cela n’a pas empêché Sam Altman de rafler la mise. OpenAI vient de boucler un tour de table de 110 milliards de dollar tandis qu’ Anthropic fait face à un isolement croissant et à un compte à rebours de six mois avant son retrait complet.

Au-delà du duel entre Claude et ChatGPT, c’est le rapport de force entre la Silicon Valley et l’État fédéral qui se redessine. L’intelligence artificielle, utilisée chaque jour par des millions d’utilisateurs civils, se trouve désormais au cœur d’un arbitrage stratégique où se croisent souveraineté, sécurité nationale et libertés publiques. Et, pour le dire sans détour, la partie ne fait que commencer.

Sources :

Les Numériques – Claude banni par Trump, Anthropic blacklistée, OpenAI signe avec le Pentagone – 28 février 2026 – lien

Compte Facebook de Matt Farmer

Laisser un commentaire