Points clés
- Dario Amodei a refusé un contrat de 200 millions de dollars pour développer des armes autonomes avec Claude.
- Le Pentagone a classé Anthropic comme « risque pour la chaîne d’approvisionnement » en mars 2026.
- La juge Rita F. Lin a bloqué l’exclusion d’Anthropic des contrats fédéraux par une injonction préliminaire.
- Trente employés de Google et OpenAI, dont Jeff Dean, soutiennent publiquement la position d’Anthropic.
- Le Pentagone utilise toujours Claude via le programme Maven, créant une contradiction opérationnelle.
Anthropic vient de remporter une bataille décisive face au Pentagone. Le 27 mars 2026, une juge fédérale californienne a bloqué la tentative de l’administration Trump d’exclure la startup des contrats gouvernementaux. Le motif de cette exclusion : le refus d’Anthropic de fournir Claude pour des applications d’armement autonome et de surveillance de masse sans garde-fous.
Pourquoi Anthropic a refusé 200 millions de dollars
Dario Amodei, le PDG d’Anthropic, a justifié ce refus par un argument technique autant qu’éthique : Claude n’est pas suffisamment fiable pour prendre des décisions susceptibles de coûter des vies humaines. L’entreprise a posé une ligne rouge claire : pas d’armement autonome, pas de surveillance de masse sans contrôle humain.
La réaction du Pentagone a été immédiate. Pete Hegseth, secrétaire à la Défense, a classé Anthropic comme « risque de sécurité nationale » et a ordonné à tous les contractants fédéraux de couper leurs liens avec la startup. Une mesure de rétorsion inédite dans le secteur technologique américain.
La victoire judiciaire du 27 mars
La juge Rita F. Lin a accordé une injonction préliminaire en faveur d’Anthropic, estimant que l’exclusion était disproportionnée et dépourvue de fondement légal solide. Anthropic reste éligible aux appels d’offres fédéraux. C’est un revers cinglant pour la stratégie d’isolement menée par l’administration Trump, et un précédent juridique qui pourrait inspirer d’autres entreprises technologiques.
La Silicon Valley se mobilise
Environ trente employés de Google et d’OpenAI ont signé une lettre ouverte soutenant la position d’Anthropic. Parmi les signataires figure Jeff Dean, responsable de la recherche chez Google. Leur message est limpide : refuser de participer à l’armement autonome n’est pas un acte de lâcheté, mais de responsabilité. Ce soutien renforce la crédibilité du courant pro-éthique dans la Silicon Valley.
Le paradoxe Maven
L’affaire révèle une contradiction majeure. Le Pentagone utilise toujours Maven, un système de ciblage développé par Palantir, qui s’appuie sur Claude pour le traitement du langage naturel. Interdire officiellement Anthropic tout en dépendant de son modèle IA crée un problème opérationnel que l’armée américaine devra résoudre rapidement.
FAQ
Claude sera-t-il utilisé pour des armes autonomes à terme ?
Pas à court terme. La décision judiciaire protège la position d’Anthropic, et Dario Amodei a réaffirmé que le renforcement des garde-fous était non négociable. Une nouvelle administration pourrait contester cette décision, mais le précédent légal de mars 2026 complique considérablement toute tentative d’escalade.
Quel impact sur la gouvernance de l’IA militaire ?
Cette affaire crée une jurisprudence importante : refuser un contrat d’État sur une base éthique n’est pas illégal. Ce précédent pourrait encourager Google et Microsoft à maintenir leurs propres lignes rouges face aux exigences fédérales de déverrouillage sécuritaire.
À suivre : L’appel potentiel du gouvernement, les nouvelles conditions imposées aux contractants militaires, et la position des autres acteurs de l’IA face aux pressions fédérales. Le débat éthique IA-Défense façonnera les contrats 2027-2028.
Sources : RTS, ICTjournal, Clubic. À lire aussi : Anthropic alerte sur l’IA et la surveillance d’État, Claude Opus 4.6 : un million de tokens de contexte.
