Points clés

  • 26 mars 2026 : Un juge fédéral de Californie bloque indéfiniment la désignation d’Anthropic comme « risque supply chain » par le Pentagone
  • Origine : Le Département de la Défense avait inscrit Anthropic sur sa liste noire le 4 mars, après un désaccord sur l’usage de Claude dans les armes autonomes et la surveillance de masse
  • Décision : Le tribunal estime que la mesure « piétine les droits constitutionnels » d’Anthropic
  • Portée : Première fois qu’une entreprise américaine conteste avec succès cette désignation, historiquement réservée aux adversaires étrangers
  • Impact : Les contrats fédéraux utilisant Claude ne sont plus menacés à court terme

Le coup de théâtre du 26 mars : la justice donne raison à Anthropic

Le 26 mars 2026, un juge fédéral de Californie a rendu une décision qui fera date dans l’histoire de la régulation de l’intelligence artificielle aux États-Unis. Il a bloqué indéfiniment la tentative du Pentagone de qualifier Anthropic de « risque pour la chaîne d’approvisionnement » (supply chain risk), estimant que cette mesure « piétine les droits constitutionnels » de l’entreprise. Une victoire juridique majeure pour le créateur de Claude, et un camouflet pour le Département de la Défense.

Pour comprendre l’ampleur de cette décision, il faut remonter au 4 mars 2026. Ce jour-là, Anthropic a reçu une lettre officielle du Département de la Défense l’informant de son inscription sur la liste des risques supply chain — une désignation traditionnellement réservée aux entreprises étrangères considérées comme des menaces pour la sécurité nationale. Anthropic est devenue la première entreprise américaine à figurer publiquement sur cette liste. Un fait inédit, et politiquement explosif.

L’origine du conflit : deux lignes rouges non négociables

Le conflit entre Anthropic et le Pentagone ne porte pas sur un problème technique. Il porte sur une question de principe fondamentale : à quoi peut servir l’intelligence artificielle dans le domaine militaire ?

Anthropic avait posé deux lignes rouges explicites dans ses négociations avec le Département de la Défense. Premièrement, l’entreprise refusait que ses systèmes d’IA soient utilisés dans des armes autonomes — c’est-à-dire des systèmes capables de prendre des décisions létales sans intervention humaine. Deuxièmement, Anthropic refusait que Claude soit déployé dans des programmes de surveillance de masse sur le territoire américain.

Ces deux positions ne sont pas nouvelles pour Anthropic. L’entreprise les défend depuis sa fondation, et elles sont inscrites dans sa politique d’usage acceptable (Acceptable Use Policy). Mais le Pentagone les a interprétées comme un refus de coopérer avec les objectifs de défense nationale. D’où la désignation punitive du 4 mars.

Ce que dit exactement la décision du tribunal

Le juge fédéral a motivé sa décision sur plusieurs points qui méritent un décryptage attentif.

Premier point : la proportionnalité. La désignation « supply chain risk » est un instrument conçu pour protéger les États-Unis contre des acteurs étrangers hostiles (entreprises chinoises, russes, etc.). L’utiliser contre une entreprise américaine qui pose simplement des conditions éthiques à l’usage de sa technologie est disproportionné. Le juge a noté que « cela semble être une barre assez basse » pour justifier une telle mesure.

Deuxième point : les droits constitutionnels. Le tribunal a estimé que la désignation portait atteinte aux droits d’Anthropic, notamment le droit de mener ses activités commerciales et de fixer les conditions d’utilisation de ses produits. Le Pentagone ne peut pas contraindre une entreprise privée à fournir sa technologie pour des usages qu’elle juge contraires à ses principes.

Troisième point : l’absence de preuve de risque réel. Le Département de la Défense n’a pas démontré qu’Anthropic constituait un risque tangible pour la chaîne d’approvisionnement. Il n’y avait ni preuve d’espionnage, ni de transfert de technologie vers des adversaires, ni de vulnérabilité de sécurité identifiée. Le seul « risque » était le refus d’Anthropic de coopérer sans conditions.

Qui est concerné par cette décision ?

Les entreprises d’IA américaines. Cette décision crée un précédent juridique majeur. Elle établit que le gouvernement fédéral ne peut pas utiliser les désignations supply chain comme levier de pression pour forcer les entreprises technologiques à accepter des usages militaires de leurs produits. OpenAI, Google DeepMind, Meta et toute entreprise d’IA ayant des contrats fédéraux observent cette décision de très près.

Le Département de la Défense. Le Pentagone perd un outil de coercition commerciale. S’il veut accéder aux technologies d’IA les plus avancées, il devra désormais négocier dans un cadre qui respecte les conditions posées par les entreprises. C’est un rééquilibrage du rapport de force entre l’État fédéral et le secteur privé technologique.

Les sous-traitants de défense (government contractors). Selon une analyse du cabinet Mayer Brown, la désignation d’Anthropic avait créé une incertitude juridique considérable pour les entreprises qui utilisaient déjà Claude dans des contextes fédéraux. Ces entreprises risquaient de devoir cesser d’utiliser les produits Anthropic sous peine de non-conformité. L’injonction du 26 mars lève cette menace à court terme.

Les législateurs et régulateurs. Cette affaire met en lumière les limites des outils réglementaires existants face à l’IA. La désignation supply chain n’a pas été conçue pour ce type de conflit. Les législateurs devront probablement créer un cadre juridique spécifique pour encadrer les relations entre les entreprises d’IA et le secteur de la défense.

L’analyse contradictoire : une victoire, mais à quel prix ?

Arguments en faveur d’Anthropic. L’entreprise défend un principe légitime : une entreprise privée a le droit de fixer des limites éthiques à l’usage de sa technologie. Le fait qu’Anthropic soit la seule grande entreprise d’IA à avoir tracé ces lignes rouges lui confère une crédibilité morale considérable. Et la décision du tribunal valide cette position sur le plan juridique.

Arguments en faveur du Pentagone. Le Département de la Défense a un mandat de protection de la sécurité nationale. Si les entreprises d’IA les plus avancées refusent de coopérer sur des programmes de défense, cela crée un vide stratégique. La Chine n’a pas ce problème : ses entreprises d’IA coopèrent avec l’armée sans restriction. Ce déséquilibre pourrait affaiblir la position américaine dans la compétition technologique globale.

Le risque politique. Anthropic a gagné au tribunal, mais elle pourrait perdre au Congrès. L’administration Trump pourrait chercher à faire voter une législation qui obligerait les entreprises d’IA à coopérer avec la défense sous peine de sanctions. Cette bataille juridique n’est probablement que le premier round d’un conflit plus long.

Questions fréquentes

Anthropic peut-elle encore perdre cette bataille ?

Oui. L’injonction est « indéfinie » mais pas « définitive ». Le Département de la Défense peut faire appel. Et le Congrès pourrait voter une loi qui contournerait cette décision judiciaire. L’injonction protège Anthropic à court et moyen terme, mais le conflit de fond — qui décide de l’usage militaire de l’IA — n’est pas résolu.

D’autres entreprises d’IA sont-elles menacées par ce type de désignation ?

Pas pour le moment. Anthropic est la seule entreprise américaine à avoir été publiquement désignée. Mais cette affaire crée un précédent dangereux : si le Pentagone pouvait le faire une fois, il pourrait le refaire. La décision du tribunal réduit ce risque, mais ne l’élimine pas complètement.

Claude est-il toujours utilisé par le gouvernement américain ?

La situation est paradoxale. Malgré la désignation supply chain, Claude continue d’être utilisé dans certains programmes fédéraux, y compris dans des contextes sensibles. L’injonction du 26 mars permet cette continuité. Mais l’avenir de ces contrats dépendra de l’issue finale du conflit juridique et politique entre Anthropic et le Département de la Défense.

Calendrier des prochaines étapes

Mars-avril 2026 : Le Département de la Défense évalue ses options (appel, négociation, voie législative).
Printemps 2026 : Possibilité d’un appel du Pentagone devant la cour d’appel fédérale.
2026-2027 : Le Congrès pourrait introduire une législation sur les obligations des entreprises d’IA envers la défense nationale.