📋 En bref
OpenAI, Anthropic et Google ont activé le Frontier Model Forum le 6 avril 2026 pour échanger leurs renseignements contre les tentatives chinoises d'extraction de leurs modèles les plus avancés.
  • Une alliance inédite entre rivaux
  • 16 millions d'échanges frauduleux attribués à trois acteurs chinois
  • Ce que les laboratoires partagent concrètement
  • Une rupture stratégique

OpenAI, Anthropic et Google partagent désormais leurs données de menaces en temps réel. Bloomberg a révélé le 6 avril 2026 que les trois laboratoires d’IA activent pour la première fois le Frontier Model Forum comme véritable dispositif de renseignement contre les tentatives chinoises de clonage de leurs modèles.

Une alliance inédite entre rivaux

Le Frontier Model Forum a été fondé en 2023 par OpenAI, Anthropic, Google et Microsoft. Jusqu’ici, l’organisation à but non lucratif se contentait de publier des recommandations techniques sur la sécurité des modèles avancés. Elle bascule aujourd’hui sur un terrain opérationnel.

Les trois laboratoires échangent désormais plusieurs types de données sensibles : empreintes de comptes frauduleux, cartographies d’infrastructures proxy, flux d’inscription renforcés et classificateurs de chain-of-thought elicitation. L’objectif est d’identifier en amont les schémas de trafic qui signalent des tentatives automatisées de distillation.

16 millions d’échanges frauduleux attribués à trois acteurs chinois

Cette bascule s’explique par un incident rendu public par Anthropic le 23 février 2026. Le laboratoire avait alors révélé avoir détecté 16 millions d’échanges avec Claude, répartis sur environ 24 000 comptes frauduleux. Trois acteurs chinois sont nommément visés : DeepSeek, Moonshot AI (Kimi) et MiniMax.

Selon les analyses transmises à Bloomberg, les requêtes observées présentaient toutes les caractéristiques de tentatives de distillation : volume élevé, patterns de prompts répétitifs conçus pour extraire les chaînes de raisonnement, et comportements de type bot dissimulés via des réseaux de proxys.

Ce que les laboratoires partagent concrètement

Les signaux désormais mutualisés couvrent plusieurs couches. Côté identité, les laboratoires synchronisent les empreintes des comptes fraudés, les numéros de cartes bancaires suspects et les adresses IP résidentielles utilisées pour contourner les vérifications. Côté comportement, ils partagent les classificateurs entraînés à détecter les prompts orientés vers l’extraction de raisonnement.

Les flux de signup renforcés incluent de nouvelles étapes de vérification et des tests comportementaux destinés à bloquer les bots avant qu’ils n’accèdent aux API payantes.

Une rupture stratégique

La portée du geste dépasse le cas chinois. C’est la première fois que trois concurrents directs — qui se disputent le marché des modèles frontières — s’organisent formellement autour d’une opération de défense commune. Le précédent était attendu depuis la publication par DeepSeek, en janvier 2025, d’un modèle soupçonné d’avoir été partiellement entraîné sur des sorties d’o1 d’OpenAI.

Le Frontier Model Forum devient de fait une structure hybride, à mi-chemin entre groupe de travail réglementaire et cellule de threat intelligence. Reste à savoir comment Microsoft, quatrième membre fondateur, s’insère dans ce nouveau dispositif — le communiqué du 6 avril n’en fait pas mention explicite.

Les prochaines étapes

Le forum envisage selon Bloomberg d’étendre le dispositif à d’autres laboratoires occidentaux comme Mistral, Cohere ou xAI. Aucun calendrier n’est confirmé. Pour l’instant, les trois membres fondateurs assurent que les données partagées ne permettent pas d’identifier les clients légitimes, l’ensemble étant anonymisé avant transmission.

Pour les entreprises européennes utilisatrices des API d’OpenAI, Anthropic ou Google, aucune action n’est requise. Les vérifications renforcées peuvent toutefois allonger les délais de validation lors de la création de nouveaux comptes professionnels.

Sources : Bloomberg, 6 avril 2026 ; Japan Times, 7 avril 2026 ; Anthropic Transparency Report, 23 février 2026.