- ▸ Une décision rendue publique le 1er mai 2026
- ▸ Une thèse en trois temps
- ▸ Contexte historique : du contrat Maven à l'IA générative classifiée
- ▸ Analyse technique : ce que dit, et ne dit pas, la sélection des sept
Le département américain de la Défense a retenu sept entreprises d’intelligence artificielle pour des opérations classifiées, selon une information publiée le 1er mai 2026 par Le Monde. Anthropic, éditeur de Claude, ne figure pas dans la liste finale. Trois questions structurent ce dossier : qui entre, qui sort, et que révèle ce filtre des nouveaux équilibres entre Silicon Valley et Pentagone.
Points clés 1. Sept entreprises d’IA ont été sélectionnées par le Pentagone pour des missions classifiées, selon Le Monde du 1er mai 2026. 2. Claude d’Anthropic a été écartée du contrat-cadre, sans motif officiel rendu public. 3. Les domaines d’usage couverts ne sont pas détaillés publiquement, conformément au statut classifié de l’enveloppe. 4. La sélection s’inscrit dans une trajectoire d’intégration accélérée des grands modèles de langage à la chaîne de commandement militaire américaine. 5. L’absence d’Anthropic interroge la frontière entre politique de sûreté assumée par l’éditeur et exigences opérationnelles de la défense.
Une décision rendue publique le 1er mai 2026
Le 1er mai 2026, Le Monde relaie l’information : sept entreprises d’intelligence artificielle viennent d’être retenues par le département américain de la Défense pour conduire des opérations classifiées. La nouvelle, brève, fait surface au lendemain d’une séquence de plusieurs mois durant laquelle le Pentagone a multiplié les annonces sur l’usage opérationnel des grands modèles. Le détail qui retient l’attention n’est pas seulement la liste des élus, restée largement opaque. C’est une absence : Claude, le modèle développé par Anthropic, ne figure pas dans la sélection. Cette éviction prend un relief particulier au regard du positionnement public d’Anthropic sur la sûreté de l’IA, et au regard des partenariats récents que la société a noués avec d’autres administrations fédérales américaines. Le dossier reste partiellement classifié, ce qui impose ici une analyse à partir des éléments rendus publics et des trajectoires connues des acteurs concernés.
Une thèse en trois temps
L’éviction d’Anthropic n’est pas un accident industriel. Elle traduit la réorganisation, en cours depuis dix-huit mois, du marché de l’IA de défense autour d’un nombre restreint de fournisseurs validés. Trois forces structurent cette recomposition : une exigence de conformité documentaire que tous les éditeurs ne souhaitent pas remplir, une politique d’usage interne propre à chaque laboratoire, et un arbitrage politique sur la dépendance aux grands modèles dits « frontière ». L’analyse qui suit montre comment ces trois forces convergent vers une cartographie où certains éditeurs deviennent des fournisseurs naturels du Pentagone, tandis que d’autres se positionnent volontairement à distance.
Contexte historique : du contrat Maven à l’IA générative classifiée
Pour saisir la portée de la décision révélée le 1er mai 2026, il faut remonter à 2018. Cette année-là, Google annonçait son retrait du programme Project Maven, un partenariat avec le Pentagone visant à utiliser la vision par ordinateur pour analyser les images captées par les drones militaires. Le retrait, motivé par une fronde interne de plusieurs milliers d’employés, avait dessiné une ligne de partage entre les laboratoires d’IA et l’administration de la défense. À cette époque, le marché de l’IA militaire restait dominé par des intégrateurs traditionnels — Lockheed Martin, Raytheon, Northrop Grumman — qui sous-traitaient la couche logicielle à des prestataires spécialisés.
Le paysage a basculé en 2023, avec la diffusion à grande échelle des grands modèles de langage. La capacité à générer du texte, à synthétiser du renseignement de source ouverte, à produire des résumés opérationnels et à interroger des bases documentaires en langage naturel a transformé l’attente du Pentagone vis-à-vis de la Silicon Valley. Le Joint Artificial Intelligence Center, devenu le Chief Digital and Artificial Intelligence Office (CDAO) en 2022, a structuré la doctrine d’acquisition. Des contrats-cadres ont été passés avec OpenAI, Microsoft, Palantir, Scale AI puis Anduril. Le mouvement s’est accéléré en 2024 et 2025 avec l’apparition d’enclaves classifiées, c’est-à-dire de versions de modèles déployées sur des infrastructures certifiées pour héberger de l’information sensible.
Anthropic n’a pas été absente de ce mouvement. La société a publié à plusieurs reprises sa politique d’usage acceptable, dans laquelle elle autorise certains usages défense et renseignement sous conditions, tout en proscrivant les armements autonomes létaux et la désinformation ciblée. Elle a également formalisé, avec d’autres acteurs, des engagements volontaires sur la sûreté des modèles dits « frontière ». La séquence dévoilée le 1er mai 2026 referme une parenthèse : celle d’une présomption d’éligibilité partagée par tous les grands éditeurs américains. Désormais, la sélection est explicite, et certaines absences deviennent signifiantes.
Analyse technique : ce que dit, et ne dit pas, la sélection des sept
L’information publiée par Le Monde est d’une concision frappante. Sept entreprises d’IA ont été retenues. Claude d’Anthropic est écartée. Les domaines d’application restent classifiés, et les motifs de sélection comme d’éviction ne sont pas publiquement détaillés. Cette opacité est conforme à la nature des marchés de défense, mais elle impose une lecture par triangulation, à partir des contrats publics passés ces deux dernières années et des positionnements documentés des acteurs.
Premier enseignement : le format choisi — sept fournisseurs — ne ressemble pas à un appel d’offres classique attribué à un seul prestataire. Il s’apparente davantage à un contrat-cadre permettant à plusieurs entités du département de la Défense de tirer, au fil des besoins, sur un catalogue de capacités. Ce schéma est désormais courant : il garantit la concurrence, évite la captation par un fournisseur unique et autorise une spécialisation par mission. Un acteur peut être retenu pour la synthèse documentaire, un autre pour l’analyse vidéo, un troisième pour l’orchestration agentique.
Deuxième enseignement : le périmètre de sept laboratoires correspond grossièrement à la cartographie des éditeurs américains capables, à mi-2026, de fournir des modèles et des plateformes au niveau de l’état de l’art, certifiables par les agences fédérales. Cette cartographie inclut typiquement des éditeurs de modèles fondamentaux, des spécialistes de la vision et de l’analyse d’images, des intégrateurs orientés défense et des fournisseurs d’infrastructure d’inférence sécurisée.
Troisième enseignement : l’absence d’Anthropic, que la dépêche met explicitement en avant, n’est pas un détail de marché. Elle peut s’interpréter de plusieurs manières non exclusives. Première hypothèse, la plus mécanique : Anthropic n’a pas soumissionné, ou a soumissionné sur un périmètre restreint qui ne recoupait pas l’enveloppe classifiée concernée. Deuxième hypothèse : la société a soumissionné mais n’a pas été retenue, faute d’avoir rempli les exigences de certification, ou faute d’aligner ses conditions d’usage avec les besoins opérationnels exprimés. Troisième hypothèse : un choix politique du Pentagone, motivé par des considérations qui ne seront pas rendues publiques. Aucune de ces hypothèses n’est confirmée à ce stade par les sources disponibles.
Pour donner un ordre de grandeur de ce que recouvrent ces contrats, les engagements précédemment passés par le département de la Défense avec des éditeurs d’IA comportaient des plafonds pluri-annuels exprimés en dizaines, parfois en centaines de millions de dollars. Le contrat-cadre annoncé le 1er mai 2026 n’a pas vu son volume publié.
| Élément | Donnée publique | Donnée classifiée |
|---|---|---|
| Nombre d’entreprises retenues | 7 | — |
| Identité des sept entreprises | Non détaillée publiquement | Communiquée aux entités utilisatrices |
| Statut de Claude d’Anthropic | Écartée de la sélection | Motif non communiqué |
| Domaines d’application | Opérations classifiées | Détail des cas d’usage |
| Volume financier | Non communiqué | À ce jour non public |
| Date de la décision | Rendue publique le 1er mai 2026 | Calendrier interne non détaillé |
Ce tableau illustre un fait souvent mal perçu hors des cercles défense : dans un marché classifié, l’information rendue publique est délibérément résiduelle. Elle vise à informer le contribuable américain de l’existence d’un programme, pas à en exposer la mécanique.
Impact terrain : ce que change concrètement la sélection
Pour les sept entreprises retenues, l’effet immédiat est triple. D’abord, un effet de référencement : être listée comme fournisseur agréé pour des opérations classifiées du Pentagone constitue un signal fort à destination d’autres administrations fédérales et des forces armées de pays alliés. Le label « cleared for classified operations » fonctionne comme un sceau, qui ouvre des conversations commerciales que des concurrents non agréés ne peuvent pas entamer. Ensuite, un effet de revenu : les contrats de défense, même quand leur volume reste modeste à l’échelle des budgets cloud commerciaux, présentent une régularité de paiement et une visibilité pluri-annuelle que peu de marchés offrent. Enfin, un effet de spécialisation : les exigences propres au monde défense — résilience, traçabilité, audit, isolation réseau, conformité aux standards de classification — irriguent ensuite les offres commerciales destinées aux secteurs régulés, finance et santé en tête.
Pour Anthropic, l’impact est moins simple à lire. La société ne dépend pas, à mi-2026, des contrats défense pour son modèle économique : ses revenus principaux proviennent de l’API Claude vendue aux développeurs et aux entreprises, ainsi que de partenariats avec des intégrateurs cloud. L’absence dans la sélection des sept ne menace pas la trajectoire financière de l’éditeur. Elle pose en revanche une question de stratégie. Une absence isolée peut s’interpréter comme un choix d’auto-limitation assumé. Une absence répétée, à mesure que d’autres contrats classifiés se signent, dessinerait au contraire une trajectoire de mise à l’écart, dont les conséquences à long terme seraient plus structurelles : difficulté à attirer des talents disposant de clearances, perte de visibilité sur les besoins fonctionnels du monde défense, et fragilisation de la position concurrentielle vis-à-vis d’éditeurs plus interopérables avec l’écosystème militaire.
Pour les utilisateurs finaux — analystes du renseignement, officiers d’état-major, opérateurs de plateformes ISR — la sélection des sept dessine la palette d’outils qu’ils auront à disposition dans les prochains mois pour synthétiser de l’information, interroger des corpus documentaires, ou orchestrer des chaînes de traitement automatisées. Le choix d’un fournisseur plutôt qu’un autre influe directement sur la qualité des sorties, la nature des garde-fous embarqués, et la facilité d’intégration avec les systèmes existants. Le retrait d’un acteur perçu comme rigoureux sur la sûreté ne doit pas faire l’objet d’une lecture binaire. Il peut signifier que d’autres acteurs ont rattrapé ce niveau d’exigence, ou que les besoins exprimés ne s’accommodaient pas des restrictions posées par Anthropic dans ses conditions d’usage.
Pour l’écosystème français et européen, l’épisode est doublement instructif. Il rappelle que le marché américain de la défense, tout en restant ouvert à l’innovation, est désormais structuré autour d’un cercle restreint de fournisseurs validés, au sein duquel les nouveaux entrants doivent justifier d’une trajectoire de conformité longue et coûteuse. Il rappelle aussi que les politiques d’usage des éditeurs ne sont pas des engagements de communication : elles déterminent, dans les faits, l’éligibilité à certains marchés. Une politique restrictive est un actif de marque sur le marché grand public, et peut être un frein sur certains marchés régulés.
Perspectives contradictoires : trois lectures concurrentes
Première lecture, défendue par une partie des observateurs des marchés défense : l’éviction d’Anthropic serait une victoire de la rigueur. Dans cette interprétation, Anthropic aurait soit refusé certains usages, soit posé des conditions d’audit que le Pentagone n’a pas voulu accepter. La société préserverait ainsi la cohérence entre sa communication publique sur la sûreté et ses pratiques contractuelles. Cette lecture est cohérente avec la politique d’usage acceptable publiée par Anthropic, qui distingue explicitement les usages autorisés des usages prohibés, et qui n’a pas été modifiée sous la pression d’opportunités commerciales.
Deuxième lecture, plus critique : l’éviction traduirait un déficit d’adaptation industrielle. Dans cette interprétation, Anthropic n’aurait pas su présenter une offre suffisamment mature en termes de déploiement en environnement classifié, de support 24/7 aux niveaux de classification requis, ou d’intégration aux pipelines existants. Les contrats défense exigent une ingénierie de mise en production qui dépasse largement la qualité du modèle sous-jacent. Plusieurs concurrents historiques ont passé des années à construire cette infrastructure, et l’avantage qu’ils en tirent n’est pas anecdotique. Cette lecture est défendue, hors attribution, par des consultants spécialisés qui observent depuis 2023 la montée en compétence des éditeurs sur les exigences GovCloud et IL5/IL6.
Troisième lecture, géopolitique : la sélection refléterait une volonté du Pentagone de répartir ses dépendances entre plusieurs fournisseurs, sans laisser un acteur perçu comme particulièrement « californien » dans son éthique occuper une position centrale. Cette lecture suppose un calcul de souveraineté interne au département de la Défense, qui chercherait à équilibrer les engagements éthiques et opérationnels au sein de sa palette de fournisseurs. Elle est plus spéculative et mérite d’être traitée comme telle, en l’absence de confirmation documentée.
Aucune de ces trois lectures n’épuise le sujet. Toutes méritent d’être maintenues en parallèle tant que les motifs réels de la sélection ne seront pas, partiellement ou totalement, déclassifiés. Sur les marchés classifiés, l’absence d’information n’est jamais neutre : elle protège la décision contre la contestation et permet au commanditaire de réviser sa cartographie de fournisseurs sans coût politique excessif.
Prospective : trois jalons à surveiller
Trois jalons permettront, dans les douze à vingt-quatre mois qui viennent, de préciser la lecture à donner de l’épisode. Premier jalon : la publication, par le Pentagone ou par les éditeurs eux-mêmes, de la liste des sept entreprises retenues. Cette identification, partielle ou complète, permettra de mesurer la cohérence du panel et d’identifier les domaines fonctionnels couverts. Deuxième jalon : le comportement d’Anthropic vis-à-vis d’autres marchés classifiés, qu’il s’agisse d’agences de renseignement, du département de la Sécurité intérieure ou d’alliés du programme Five Eyes. Une absence cohérente sur ces autres marchés validerait l’hypothèse d’une auto-limitation assumée. Une présence sélective révélerait, à l’inverse, une logique de marché plus opportuniste. Troisième jalon : l’évolution des politiques d’usage acceptable des éditeurs concurrents, et l’émergence éventuelle de standards communs sur l’usage défense de l’IA générative. Une convergence des politiques d’usage rendrait moins distinctive la position aujourd’hui défendue par Anthropic. Une divergence, au contraire, consoliderait la lecture d’un marché clivé entre éditeurs « défense compatibles » et éditeurs « auto-limités ».
Ces trois jalons ne donneront pas une réponse univoque. Ils permettront de remplir progressivement les cases laissées vides par la dépêche du 1er mai 2026, et d’ajuster la cartographie qui se dessine. La question ouverte par cet épisode est moins celle de l’éviction d’un éditeur particulier que celle, plus structurelle, de la frontière entre éthique de l’IA, exigence opérationnelle et arbitrage politique. C’est sur cette frontière que se jouera, dans les prochaines années, l’équilibre des forces entre Silicon Valley et appareil de défense américain.
FAQ
Pourquoi Claude d’Anthropic a-t-elle été écartée de la sélection ?
Les motifs de l’éviction n’ont pas été rendus publics par le département de la Défense, conformément au caractère classifié du contrat-cadre. Trois hypothèses coexistent : non-soumission d’Anthropic sur ce périmètre, non-conformité aux exigences de certification, ou choix politique non communiqué. Aucune de ces hypothèses n’est confirmée par les sources disponibles à ce jour.
Quels sont les secteurs concernés par ces missions d’IA classifiées ?
Le détail des domaines d’application n’est pas rendu public. Les contrats classifiés du Pentagone signés ces deux dernières années couvrent typiquement la synthèse de renseignement de source ouverte, l’analyse documentaire automatisée, l’aide à la décision en planification opérationnelle, et l’orchestration agentique sur infrastructure isolée. La nature exacte des cas d’usage retenus dans la sélection du 1er mai 2026 reste classifiée.
Cette éviction menace-t-elle le modèle économique d’Anthropic ?
Non, à court terme. Les revenus d’Anthropic proviennent principalement de l’API Claude vendue aux développeurs et aux entreprises, ainsi que de partenariats avec des intégrateurs cloud. L’absence d’un contrat-cadre défense ne fragilise pas mécaniquement la trajectoire financière de la société. La question se poserait différemment si l’éviction se répétait sur d’autres marchés régulés à fort volume.
Cette décision crée-t-elle un précédent pour les éditeurs d’IA européens ?
Indirectement, oui. L’épisode confirme que le marché américain de la défense est structuré autour d’un nombre restreint de fournisseurs validés, et qu’y entrer suppose une trajectoire de conformité longue et coûteuse. Pour les éditeurs européens visant des marchés défense aux États-Unis ou chez les alliés du programme Five Eyes, la barrière à l’entrée est davantage industrielle et réglementaire que technologique.
Encadré sources
- Le Monde, « Le Pentagone recrute sept entreprises d’IA pour des opérations classifiées ; Claude d’Anthropic écartée », 1er mai 2026, lien.
- Pour aller plus loin sur les contrats récents passés par le Pentagone avec des éditeurs d’IA, voir notre dossier interne Anthropic et la course aux 1M de tokens et notre analyse Google injecte 40 Md$ dans Anthropic : la stratégie d’intégration cloud.
- Pour le contexte historique du retrait de Google du Project Maven, voir notre rétrospective Project Maven : huit ans après, ce que Google a perdu et gagné.
- Politique d’usage acceptable d’Anthropic : page publique de l’éditeur, consultée à la date de publication.



