Washington, 28 février 2026 – Le Parisien Matin, Dans une décision sans précédent, le président Donald Trump a ordonné ce vendredi l’arrêt immédiat des collaborations gouvernementales avec Anthropic, citant un Risque Anthropic majeur pour la chaîne d’approvisionnement de la Défense. Le Pentagone reproche à la start-up, pourtant pionnière de l’IA sécurisée, de vouloir imposer ses propres « garde-fous » éthiques sur l’usage des armes autonomes et de la surveillance de masse. Ce divorce brutal, qualifié de « guerre nucléaire contractuelle », laisse le champ libre à son rival OpenAI, qui vient de signer un accord avec le ministère de la Guerre (ex-Pentagone). Pour Anthropic, cette désignation de Risque Anthropic est un coup de massue qui pourrait bloquer des dizaines de milliers de sous-traitants aux USA, alors même que l’entreprise envisageait une introduction en bourse (IPO) record.
Une rupture technologique majeure à Washington
L’annonce est tombée comme un couperet sur l’industrie de la tech. Le gouvernement américain a officiellement désigné les logiciels de la firme comme un danger pour la chaîne d’approvisionnement. Ce concept, désormais résumé sous l’appellation de Risque Anthropic, implique que l’administration ne considère plus les modèles de langage de l’entreprise comme des outils fiables pour les opérations de sécurité nationale.
Le président a instauré un délai de six mois pour que toutes les agences, y compris le renseignement et la défense, migrent vers d’autres solutions. Cette décision fait suite à des mois de tensions sourdes concernant les « gardes-fous » que l’entreprise souhaitait imposer à l’utilisation de ses modèles dans des contextes de combat ou de surveillance accrue.
Le bras de fer entre le Département de la Guerre et la Silicon Valley
Le Secrétaire à la Défense, Pete Hegseth, a été très clair sur les raisons de cette mise au ban. Selon lui, aucune entreprise privée ne peut imposer ses propres règles morales au-dessus des lois de la nation. L’échec des négociations avec Dario Amodei, le PDG d’Anthropic, a cristallisé ce que les experts nomment désormais le Risque Anthropic.
Pendant que les discussions s’enlisaient, le Pentagone cherchait à s’assurer que l’IA pourrait être utilisée sans restriction pour optimiser les systèmes d’armes et les analyses de données de masse. Le refus de la start-up de lever certaines barrières de sécurité a été interprété comme une velléité d’ingérence dans la stratégie militaire américaine.
OpenAI et la nouvelle hiérarchie de l’IA
Alors que le Risque Anthropic écarte un acteur majeur, OpenAI a rapidement comblé le vide. Sam Altman a confirmé que son entreprise avait accepté les conditions du Département de la Guerre, intégrant ses modèles dans les réseaux classifiés les plus sensibles. OpenAI a accepté de mettre en place des « sauvegardes techniques » qui répondent spécifiquement aux besoins militaires, se positionnant comme le partenaire privilégié du gouvernement.
Cette scission dans le secteur de l’IA montre deux visions du monde : l’une, portée par Anthropic, qui privilégie la sécurité intrinsèque du modèle, et l’autre, plus pragmatique, qui aligne le code informatique sur les besoins de l’État souverain.

L’impact systémique sur les sous-traitants fédéraux
Pour les entreprises de défense, la désignation officielle du Risque Anthropic est un cauchemar logistique. Des dizaines de milliers de contractants utilisent des API ou des services cloud intégrant ces modèles. En les bannissant, le gouvernement force une refonte complète de l’architecture logicielle de nombreux programmes d’armement.
Vers une doctrine de l’IA de combat sans entraves
L’année 2026 marque un tournant où l’on privilégie l’efficacité opérationnelle sur les précautions théoriques. L’administration Trump estime que dans une course aux armements mondiale, notamment face à la Chine, les États-Unis ne peuvent pas se permettre d’avoir des outils « hésitants« . Le Risque Anthropic est perçu à la Maison-Blanche comme une faiblesse stratégique qu’il fallait éliminer.
« Aucune forme d’intimidation ou de punition de la part du Département de la Guerre ne changera notre position sur la surveillance domestique de masse ou les armes entièrement autonomes. » – Dario Amodei, PDG d’Anthropic
La défense d’Anthropic face au bannissement
Malgré la pression, Anthropic maintient sa position. L’entreprise a déclaré qu’elle contesterait la décision en justice, arguant que le Risque Anthropic invoqué par le gouvernement est une construction politique destinée à punir une entreprise pour ses principes. Ils affirment que la sécurité nationale est mieux servie par des modèles transparents et contrôlés que par des systèmes dont on ignore les limites réelles en cas de dérive.
Un précédent pour la régulation technologique mondiale
D’autres nations observent de près la situation à Washington. Le bannissement fondé sur le Risque Anthropic pourrait inciter d’autres membres de l’OTAN à réévaluer leurs propres partenariats avec les laboratoires d’IA. Si les États-Unis rejettent un fournisseur pour des raisons de « chaîne d’approvisionnement », il devient difficile pour ses alliés de continuer à l’utiliser sans soulever des questions de sécurité collective.

Les conséquences financières pour les investisseurs
Google et Amazon, qui ont massivement investi dans la start-up, se retrouvent dans une position délicate. La valorisation de l’entreprise est directement menacée par cette perte de confiance institutionnelle. Si le Risque Anthropic persiste, ces géants de la tech devront peut-être réévaluer leur stratégie de cloud computing et de services d’IA pour éviter d’être eux-mêmes associés à un fournisseur jugé problématique par l’État.
Le marché attend de voir si Anthropic pourra rebondir dans le secteur privé ou si la stigmatisation fédérale sera trop lourde à porter. Pour l’instant, l’incertitude règne sur les marchés financiers concernant l’avenir des laboratoires d’IA indépendants.
L’IA et la protection de la vie privée des citoyens
Un autre aspect du conflit réside dans la surveillance de masse. Anthropic a toujours refusé de laisser ses modèles être utilisés pour compiler des données privées à grande échelle sans cadre légal strict. En qualifiant cela de Risque Anthropic, le gouvernement semble indiquer qu’il souhaite une plus grande liberté d’action dans le traitement des informations domestiques et internationales.
Cette tension souligne le dilemme de l’IA moderne : un outil puissant pour la défense peut également devenir un instrument de surveillance redoutable. Le choix de Washington de privilégier des partenaires plus flexibles soulève des inquiétudes chez les défenseurs des libertés civiles.
L’éveil d’une nouvelle ère de souveraineté algorithmique
En conclusion, la crise actuelle démontre que l’IA n’est plus un simple logiciel, mais une composante essentielle de la puissance nationale. Le bannissement au motif du Risque Anthropic marque la fin de l’innocence pour la Silicon Valley. Les entreprises devront désormais choisir leur camp : s’aligner sur les besoins régaliens ou risquer l’exclusion du marché le plus puissant du monde.
La singularité du Département de la Guerre face au code
Cette rubrique finale explore une dimension souvent ignorée : la mutation organique du langage technique au sein de l’administration américaine. En renommant le Pentagone « Département de la Guerre », l’administration Trump a entamé une transformation sémantique qui va de pair avec la gestion du Risque Anthropic. Cette approche « brute » de la technologie considère le code non pas comme une propriété intellectuelle protégée, mais comme un matériau stratégique au même titre que l’uranium ou l’acier.


