- ▸ Mai 2026 : un essai discret qui cristallise un basculement
- ▸ La thèse : la diffusion libre n'est plus le scénario par défaut
- ▸ D'où l'on vient : la décennie de la diffusion ouverte
- ▸ Le cœur du dispositif : ce que recouvre la « minimisation des risques »
Mai 2026 : Anthropic et OpenAI déploient un filtrage en amont de l’accès à leurs modèles les plus avancés. Contraintes économiques et impératifs sécuritaires convergent. L’analyste Anton Leicht théorise ce mouvement dans son essai « Cut Off » publié le 13 mai 2026. Trois forces, un basculement silencieux, une question : qui conservera l’accès à la frontier AI ?
Points clés 1. Anthropic et OpenAI articulent un dispositif de restriction sélective ciblant prioritairement les usages cyber, biologiques et agentiques avancés. 2. La motivation est duale : protection contre l’usage offensif et stratégie commerciale de différenciation par la rareté. 3. Anton Leicht formalise ce régime sous l’expression « minimising-the-risks » dans son essai « Cut Off » du 13 mai 2026. 4. Les acteurs hors du cercle d’accès composent avec des versions bridées ou des alternatives open-weight (Mistral, Llama, DeepSeek). 5. L’administration américaine pourrait codifier la pratique par voie réglementaire, dans le prolongement de l’Executive Order sur l’IA.
Mai 2026 : un essai discret qui cristallise un basculement
Le 13 mai 2026, Anton Leicht publie « Cut Off » sur sa lettre Writing by Anton. L’essai, technique mais accessible, formalise une intuition qui circulait depuis des mois dans les départements politiques des grands laboratoires. La frontier AI – la pointe avancée des grands modèles de langage – n’est plus pensée comme un bien diffusable à tous. Elle devient un actif stratégique, à protéger autant qu’à exploiter. Leicht emploie une formule qui résume le tournant : la doctrine de « minimising-the-risks », appliquée par Anthropic et OpenAI, conduit mécaniquement à restreindre l’accès, par exclusion sectorielle d’abord, par exclusion géographique ensuite. L’observation est passée largement inaperçue dans les médias généralistes. Elle est pourtant le révélateur d’une transition silencieuse, qui change la nature même du marché de l’IA.
La thèse : la diffusion libre n’est plus le scénario par défaut
L’hypothèse implicite des trois dernières années – accès ouvert via API, prix décroissants, intégration tous secteurs – ne tient plus. Deux forces convergent pour la contester : la rentabilité incertaine des modèles les plus chers à entraîner, et les évaluations de risque internes qui transforment certaines capacités en zone interdite. La résultante n’est pas un retour en arrière. C’est un nouveau régime, dans lequel l’accès devient un privilège négocié plutôt qu’un service acheté.
D’où l’on vient : la décennie de la diffusion ouverte
Pour mesurer la rupture décrite par Anton Leicht, il faut revenir au régime précédent. Entre 2022 et 2025, le secteur s’est structuré autour d’un postulat de diffusion. L’API d’OpenAI, ouverte mi-2022 avec GPT-3.5, a établi le standard : tout développeur, tout chercheur, toute entreprise disposant d’un moyen de paiement, accédait au modèle. Anthropic a suivi avec Claude en 2023, Google avec Gemini, Mistral avec ses modèles open-weight à partir de septembre 2023. La concurrence se jouait sur la performance, le prix et la latence – pas sur la sélection des utilisateurs.
Cette ouverture s’accompagnait d’une rhétorique alignée : la démocratisation de l’IA était un objectif déclaré. OpenAI s’est constituée sur cette promesse fondatrice en 2015, Anthropic l’a tempérée par un discours sécuritaire mais sans bloquer l’accès. Le marché s’est massifié : selon les rapports publiés par Anthropic et OpenAI sur leurs déploiements commerciaux, l’usage quotidien des API s’est étendu à l’ensemble du tissu économique en moins de trois ans. Le contrat tacite était clair : qui paie accède.
Ce régime a connu ses premières fissures dès fin 2024, avec les restrictions explicites sur certains usages – désinformation politique, contenus pédopornographiques, armes biologiques. Mais les limitations passaient par les conditions d’usage et la modération a posteriori, pas par un blocage en amont. L’utilisateur lambda ne voyait pas la barrière. Le tournant que décrit Anton Leicht est différent : il s’agit d’un filtrage en amont, ciblant des classes entières d’utilisateurs et de cas d’usage, avant même la requête.
Le précédent immédiat est connu : à partir de 2023, Anthropic a appliqué sa Responsible Scaling Policy (RSP) et OpenAI son Preparedness Framework. Ces documents ont posé les jalons d’une évaluation systématique des risques avant chaque déploiement majeur. Ce que « Cut Off » met en lumière, c’est le passage du document théorique à la décision opérationnelle : ces évaluations conduisent désormais à des fermetures concrètes, segmentées, et durables.
Le cœur du dispositif : ce que recouvre la « minimisation des risques »
L’expression « minimising-the-risks » employée par Anton Leicht n’est pas anodine. Elle traduit la philosophie qui sous-tend les politiques d’accès des principaux laboratoires : ne pas viser l’élimination du risque – impossible – mais sa réduction marginale par exclusion sélective. Concrètement, cela se traduit par plusieurs mécanismes empilés.
D’abord, la stratification des modèles. Un même laboratoire publie désormais plusieurs versions d’un même modèle, dont certaines, plus capables sur les domaines sensibles, ne sont accessibles qu’à des partenaires sélectionnés. Anthropic comme OpenAI distinguent une version publique – disponible via l’API standard – et une ou plusieurs versions spécialisées (cyber, bio, agentique avancée) dont l’accès est filtré par un processus d’éligibilité interne. La logique reproduit, à l’échelle des modèles, ce que le secteur de la défense pratique depuis des décennies pour les technologies dites duales.
Ensuite, le filtrage par compte. La création d’un compte développeur ne suffit plus pour les capacités les plus sensibles. Les laboratoires exigent une vérification d’identité approfondie, parfois une attestation d’usage légitime, voire un contrat commercial spécifique. Le processus, opaque pour l’extérieur, ressemble davantage à une procédure d’habilitation qu’à une souscription en libre-service.
Enfin, le rate limiting comportemental. Au-delà des quotas classiques, les fournisseurs réservent leurs meilleures capacités aux utilisateurs dont le pattern d’usage est jugé compatible avec une charte interne. Le critère n’est jamais publié explicitement. Il est inféré, par analyse des requêtes, des volumes et des cas d’usage déclarés.
Le tableau ci-dessous synthétise les trois couches du dispositif tel qu’il se dessine à mi-2026.
| Niveau d’accès | Public visé | Capacités disponibles | Conditions |
|---|---|---|---|
| Public général | Particuliers, PME, développeurs indépendants | Modèles standards, capacités plafonnées sur cyber/bio | Compte API, paiement |
| Entreprise vérifiée | Organisations validées | Modèles complets, fine-tuning encadré | Vérification KYC renforcée, contrat |
| Partenaire stratégique | Laboratoires de sécurité, agences gouvernementales, grands comptes industriels | Modèles spécialisés (cyber, bio, agentique avancée) | Sélection discrétionnaire, NDA, audit |
Cette segmentation n’est pas annoncée publiquement comme une politique unifiée. Elle s’observe à travers les conditions d’accès, les retours d’utilisateurs et les communications semi-internes que recense Anton Leicht. C’est précisément ce caractère diffus qui rend le basculement difficile à percevoir – et politiquement difficile à contester. Comme l’écrit l’analyste, « minimising-the-risks » est moins une politique qu’une logique : elle se déploie par décisions locales, justifiées au cas par cas, dont l’effet cumulé construit un nouveau régime d’accès.
Helen Toner, ancienne membre du conseil d’OpenAI désormais à Georgetown CSET, observe dans plusieurs publications que cette segmentation reproduit, à l’échelle des modèles, la logique des contrôles à l’exportation appliqués depuis octobre 2022 aux GPU avancés. Selon elle, ce qui s’est joué côté matériel sous l’administration Biden – via les restrictions du Bureau of Industry and Security sur les puces NVIDIA H100 et H200 – est en train de se rejouer côté logiciel, mais à l’initiative des entreprises elles-mêmes. Cette transposition est essentielle : elle déplace la frontière technologique sans nécessiter d’intervention étatique préalable. Le contrôle public arrive ensuite, par voie réglementaire, pour entériner une pratique déjà installée.
L’impact terrain : qui paie le coût de la fermeture ?
Les premiers concernés sont les développeurs et chercheurs indépendants. Sans contrat structurant ni profil d’entreprise validé, ils se retrouvent réorientés vers les versions bridées des modèles. La capacité à expérimenter sur la frontière, hier banale, devient rare. Le coût n’est pas seulement financier – il est cognitif : un chercheur académique en sécurité informatique, qui voulait sonder les capacités cyber d’un grand modèle, doit désormais justifier son usage avant accès, fournir une affiliation, attendre une validation.
Les startups en phase d’amorçage subissent un effet similaire. Une jeune entreprise qui souhaite construire un produit de cybersécurité défensive basé sur la frontier AI doit négocier l’accès via des canaux commerciaux longs, alors que ses concurrents historiques – souvent intégrés à des grands comptes – disposent déjà du passage. La barrière à l’entrée se reforme. Elle ne se mesure plus en GPUs ni en data, mais en accréditation. Cette inversion change la géographie de l’innovation : la sélection se fait en amont, par les fournisseurs de modèles, plutôt qu’en aval, par le marché.
Du côté des grandes entreprises, l’impact est différent. Les services financiers, les industriels et les opérateurs critiques voient s’ouvrir un accès privilégié – à condition d’accepter les conditions imposées : audit régulier de l’usage, restriction de re-distribution, parfois clauses de non-rétrocession à des tiers. La contrepartie est un service premium, mais aussi une dépendance accrue à quelques fournisseurs. Cette dépendance, longtemps perçue comme un compromis acceptable, devient un risque stratégique à part entière.
Les administrations publiques constituent le troisième cercle. Aux États-Unis, les contrats récents annoncés entre Anthropic, OpenAI et plusieurs agences fédérales – Department of Defense, intelligence community – consacrent un accès prioritaire pour les usages de défense. En Europe, la situation est plus incertaine. L’AI Act, entré en vigueur le 1er août 2024, classe les modèles à risque systémique mais ne garantit pas l’accès des autorités européennes aux versions les plus avancées des modèles américains. Une dépendance structurelle s’installe, que ni le règlement européen ni les initiatives nationales n’ont à ce jour neutralisée.
Pour les pays hors alliance étroite avec les États-Unis – et a fortiori pour les acteurs chinois, russes ou iraniens – le verrouillage est plus net. Les contrôles à l’exportation sur les GPU se doublent désormais d’un filtrage en API. La frontier AI américaine devient, de facto, un actif national, sans qu’aucune loi n’ait été votée pour la consacrer comme telle.
Les voix dissidentes : trois arguments à ne pas écarter
Toutes les analyses ne convergent pas vers le constat de « Cut Off ». Trois objections méritent d’être prises au sérieux.
La première vient de l’open-weight. Pour Arthur Mensch, cofondateur de Mistral, la restriction d’accès aux modèles fermés est précisément la raison d’être de la stratégie open-weight européenne. Les modèles Mistral, publiés sous licence permissive depuis septembre 2023, contournent par construction la logique d’accès sélectif – avec leurs propres limites en matière de sécurité, qui ne sont pas niées. L’argument est solide : tant qu’il existera des alternatives open-weight performantes, la fermeture d’OpenAI et Anthropic n’aura qu’un effet partiel. La frontière se déplacera vers la frontière open-weight, pas vers une pénurie d’accès.
La deuxième objection est économique. Pour plusieurs analystes, dont Ben Thompson (Stratechery), la fermeture sélective est moins une stratégie sécuritaire qu’une discrimination tarifaire sophistiquée. Réserver les meilleures capacités aux clients les plus solvables permet aux laboratoires d’optimiser leurs marges sans perdre de parts de marché sur le grand public. Le discours sur le risque viendrait, dans ce cadre, légitimer une politique commerciale classique. L’argument a de la portée : il rappelle que les laboratoires ne sont pas des organisations à mission pure, mais des entreprises qui doivent rentabiliser plusieurs dizaines de milliards de capex cumulés depuis 2022.
La troisième objection est technique. Pour certains chercheurs, la perception d’une « frontier » qui se cristalliserait derrière des barrières d’accès est trompeuse. Les écarts de capacités entre les modèles les plus avancés et leurs concurrents open-weight se sont réduits, et continuent de se réduire. Si la frontier AI fermée garde quelques mois d’avance, la diffusion technologique réduira l’écart à 12-18 mois – un délai qui rend la fermeture moins efficace qu’elle ne paraît. Le verrou serait alors symbolique plus qu’opératoire. Anton Leicht ne récuse pas cette objection : il observe simplement que le mois d’avance suffit, dans certains domaines critiques, à produire un avantage stratégique cumulatif.
Et maintenant : trois scénarios pour les douze prochains mois
À court terme, trois trajectoires se dessinent. Dans la première, la généralisation discrète : Anthropic et OpenAI étendent leur logique de filtrage à de nouveaux types d’usage – désinformation, manipulation sociale, certaines variantes agentiques – sans annonce structurée. Le régime décrit par « Cut Off » devient la norme par capillarité, sans qu’aucun débat public ne l’ait validé ni contesté.
Dans la deuxième, la codification réglementaire : l’administration américaine, dans le prolongement de l’Executive Order sur l’IA et des préoccupations exprimées par le NIST AI Safety Institute (devenu CAISI en 2025), transforme la pratique en obligation, en imposant aux laboratoires des règles d’éligibilité formalisées. Le risque, pointé par plusieurs juristes, est celui d’une captation par le régulateur des décisions d’accès, sans contrepoids démocratique clair.
Dans la troisième, la contestation par l’open-weight : Mistral, Meta avec Llama, et les acteurs chinois (DeepSeek, Qwen) accélèrent leur diffusion, rendant la fermeture américaine moins discriminante. C’est le scénario que défendent les partisans d’un écosystème IA ouvert, qui voient dans la fragmentation un mal nécessaire à la résilience.
Aucun de ces scénarios n’est exclusif. Le plus probable est qu’ils s’entrelacent. Ce qui se dessine, en filigrane, est moins une fermeture totale qu’une redistribution des accès : ceux qui auront négocié leur place dans le cercle accéderont à la frontière, les autres composeront avec des outils décalés d’une ou deux générations. La question pour les directions techniques européennes n’est plus de savoir si la fermeture aura lieu – elle est déjà engagée – mais comment se positionner dans la nouvelle topographie qu’elle dessine.
FAQ
Quels sont les risques liés à un accès non contrôlé à l’IA de pointe ?
Les laboratoires identifient principalement trois familles de risques : usage offensif en cybersécurité (génération de vulnérabilités, automatisation d’attaques), assistance à la conception d’armes biologiques ou chimiques, et capacités agentiques susceptibles d’exécuter des tâches complexes sans supervision humaine. Ces risques motivent les politiques de « minimising-the-risks » décrites par Anton Leicht dans « Cut Off ».
Comment les gouvernements peuvent-ils encadrer cette restriction d’accès ?
Plusieurs leviers existent : extension des contrôles à l’exportation aux services API, obligations de notification au régulateur pour les capacités à risque systémique (logique reprise par l’AI Act européen pour les modèles GPAI), ou conditionnement de l’accès à des audits indépendants. Aucun cadre unifié n’existe à mi-2026, et la pratique précède la norme.
Une entreprise française a-t-elle encore intérêt à dépendre des modèles fermés ?
Cela dépend de l’usage. Pour des cas d’usage standards, les modèles publics – OpenAI, Anthropic, Google – restent accessibles via API. Pour les usages les plus sensibles, le risque de désaccès futur invite à diversifier : combinaison de modèles fermés américains, modèles open-weight (Mistral, Llama), et capacités on-premise pour les données critiques.
Pourquoi parler de « fermeture » si l’on peut toujours s’inscrire ?
Parce que l’accès aux modèles les plus avancés passe désormais par une sélection, et non plus par une simple inscription. La fermeture n’est pas binaire : elle est graduelle, par couches, et elle s’applique aux capacités frontières. Le grand public continuera d’accéder à des modèles puissants, mais pas à la frontière elle-même.
Sources
- Anton Leicht, « Cut Off », Writing by Anton, 13 mai 2026 — https://writing.antonleicht.me/p/cut-off
- Anthropic, Responsible Scaling Policy (RSP), versions 2023-2025
- OpenAI, Preparedness Framework, versions 2023-2025
- Stratechery (Ben Thompson), analyses 2024-2026
- AI Act européen, règlement (UE) 2024/1689, entré en vigueur le 1er août 2024
- US Department of Commerce, Bureau of Industry and Security — contrôles à l’exportation sur GPU, octobre 2022 et mises à jour
- NIST AI Safety Institute / Center for AI Standards and Innovation (CAISI), publications 2024-2025
- Mistral AI, publications open-weight 2023-2026
- Helen Toner (Georgetown CSET), publications 2024-2026
- Executive Order on the Safe, Secure, and Trustworthy Development of AI, octobre 2023



