Mes lectures 0

Mes lectures

Opinion

Project Deal : 69 agents Claude négocient 186 deals en interne

Anthropic publie les résultats de Project Deal : 69 agents IA ont négocié 186 transactions sur Slack. Et un écart de qualité invisible.

Bureau d'entreprise tech en open space avec employés et lumière naturelle
📋 En bref
Anthropic publie Project Deal : 69 agents IA, 186 transactions sur Slack, et un écart de qualité Opus/Haiku invisible aux utilisateurs.
  • Quoi : marketplace expérimental Anthropic, agents IA sur Slack
  • Pourquoi : étudier les marchés où agents représentent agents
  • Chiffre clé : 186 transactions, 4 000 $ volume, 69 agents
  • À surveiller : équité des modèles dans les futurs marchés agentiques

Points clés

  • Anthropic a publié le 25 avril 2026 les résultats de Project Deal, marketplace expérimental où des agents IA ont négocié pour le compte d’employés.
  • L’expérience a duré une semaine dans le bureau de San Francisco, avec 69 agents qui ont conclu 186 transactions pour environ 4 000 dollars au total.
  • Les transactions ont eu lieu sur Slack, sans intervention humaine une fois le marché lancé.
  • Anthropic a comparé Claude Opus 4.5 et Claude Haiku 4.5 : les utilisateurs Haiku obtenaient des deals moins favorables, mais ne s’en rendaient pas compte.
  • Les participants ont jugé l’équité des deals à 4 sur 7 en moyenne, soit la médiane stricte de l’échelle.

Anthropic a publié le 25 avril 2026 le compte rendu de Project Deal, une expérience inédite menée en décembre 2025 dans son bureau de San Francisco. Pendant une semaine, 69 agents IA ont représenté des employés sur un marché classé interne, sans intervention humaine, et ont conclu 186 transactions. Le résultat principal n’est pas le volume échangé mais une observation gênante : les utilisateurs équipés d’un agent moins performant obtenaient des deals moins favorables, sans le percevoir.

Une expérience grandeur nature pour mesurer le marché agentique

Selon la publication officielle d’Anthropic, Project Deal a été conçu pour explorer ce qui se passe quand des agents représentent les deux côtés d’un échange. La mécanique est simple. En décembre 2025, Claude a interrogé chaque participant sur les biens personnels qu’il pouvait vouloir vendre et sur ce qu’il pouvait vouloir acheter. L’agent a constitué un mandat d’achat et de vente pour chacun.

Le marché lui-même s’est tenu sur Slack. Un canal dédié a fait défiler aléatoirement les agents, qui pouvaient publier des annonces, formuler des offres ou conclure des accords. Une fois l’expérience lancée, les humains n’intervenaient plus dans les négociations. Les transactions étaient ensuite réglées entre employés selon les modalités convenues par les agents.

Le périmètre est volontairement modeste : un seul bureau, une semaine, des biens personnels. Mais la configuration permet d’observer un marché entièrement automatisé dans des conditions réelles, avec de vraies préférences, de vrais paiements et de vraies déceptions. C’est ce qui distingue Project Deal des simulations académiques sur les agents économiques.

Résultats : 186 deals et un signal d’alerte

Selon TechCrunch, les chiffres bruts sont les suivants : 69 agents ont conclu 186 transactions sur plus de 500 articles listés, pour un volume total d’environ 4 000 dollars. Les participants ont noté l’équité des deals à 4 sur une échelle de 1 à 7, soit la médiane parfaite. Globalement, les employés se sont déclarés satisfaits de la façon dont leurs agents les avaient représentés.

L’enseignement le plus inattendu vient de la comparaison de modèles. Anthropic a fait tourner quatre versions du marché : deux où tous les agents reposaient sur Claude Opus 4.5, et deux où les participants avaient une chance sur deux d’être assignés à Claude Haiku 4.5. Le résultat est sans appel : être représenté par Haiku entraînait des deals quantitativement moins favorables. Mais les utilisateurs concernés ne s’en rendaient pas compte. Ils jugeaient leurs transactions équitables, même quand elles l’étaient moins.

Cette observation est fondamentale pour le futur des marchés agentiques. Elle suggère que les écarts de capacité entre modèles peuvent se traduire par des écarts de richesse entre utilisateurs, sans signal perceptible. Les utilisateurs équipés du meilleur modèle obtiennent davantage, et cette inégalité reste invisible faute d’étalon de comparaison directement accessible. Le marché ne s’autocorrige pas spontanément.

Implications pour l’économie agentique à venir

Project Deal est une mise en garde discrète mais sérieuse. Si demain les particuliers délèguent leurs achats, leurs négociations contractuelles ou leur souscription d’assurance à des agents, la qualité du modèle utilisé devient un facteur économique majeur. Aujourd’hui, le coût d’usage de Claude Opus 4.5 ou de Claude Haiku 4.5 diffère d’un facteur quatre à cinq selon les paliers tarifaires. Demain, l’écart de coût se traduira directement en écart de pouvoir d’achat.

Cette dynamique pose plusieurs questions structurantes. Comment réguler des marchés où les humains délèguent ? Comment garantir l’égalité d’accès à des agents de qualité comparable ? Quels mécanismes de transparence permettre, pour qu’un utilisateur sache qu’il a été surclassé par un agent plus puissant ? L’analogie historique est celle des asymétries d’information sur les marchés financiers, où les investisseurs particuliers traitent face à des algorithmes professionnels.

L’expérience d’Anthropic montre aussi que les utilisateurs ont tendance à faire confiance à leur agent. Le score d’équité moyen de 4 sur 7 traduit une absence de plainte explicite, alors même que des transactions étaient objectivement inégales. Cette confiance par défaut peut être un puissant levier d’adoption pour les agents, mais elle suppose une responsabilité accrue côté éditeurs : produire des agents alignés sur l’intérêt de l’utilisateur, pas sur celui de la plateforme.

Lecture pour les entreprises et les régulateurs

Pour les directions achats et finance, Project Deal anticipe un avenir proche où les outils d’achat B2B intégreront des agents capables de négocier automatiquement les renouvellements de contrat, les commandes récurrentes ou les arbitrages fournisseurs. La qualité du modèle utilisé deviendra un critère de sélection au même titre que la sécurité ou la conformité.

Pour les régulateurs européens, l’expérience pose des questions précises. L’AI Act prévoit des obligations de transparence et de qualité pour les systèmes utilisés dans des contextes économiques sensibles, mais ne couvre pas explicitement les marchés où agents représentent agents. La Commission devra probablement publier des lignes directrices sur les obligations d’équité et de comparabilité des agents commerciaux dans les prochains trimestres.

Pour les décideurs français qui suivent l’écosystème agent, Project Deal complète une série d’expériences récentes documentant les usages réels. Les enseignements rejoignent ceux observés dans les déploiements en PME que vous avez pu lire dans nos pages : la productivité gagnée varie fortement selon le modèle utilisé, et la pédagogie utilisateur reste un facteur de succès clé. L’expérience d’Anthropic ajoute une dimension : celle de l’équité, qui devient un sujet à part entière dès que des agents prennent des décisions économiques irréversibles.

Selon Blockchain News, le protocole expérimental retenu par Anthropic, avec quatre marchés parallèles, constitue une référence méthodologique nouvelle pour mesurer la performance comparée d’agents IA dans des environnements ouverts. Cette approche pourrait inspirer des benchmarks dédiés aux capacités de négociation, là où les évaluations actuelles se concentrent surtout sur la résolution de tâches isolées.

La trajectoire à plus long terme renvoie aux travaux de chercheurs en économie computationnelle qui modélisent depuis des années des marchés peuplés d’agents artificiels. Project Deal a le mérite de quitter la simulation pour observer des comportements réels d’utilisateurs face à leurs propres agents, ce qui ouvre la voie à des protocoles d’audit plus solides. Ces protocoles seront indispensables si les déploiements grand public se multiplient, en particulier dans les domaines réglementés comme la finance personnelle, l’assurance ou l’immobilier, où les déséquilibres de représentation peuvent rapidement causer des préjudices financiers significatifs.

Pour les éditeurs d’agents commerciaux, l’enseignement opérationnel est clair : il faut intégrer dès la conception des mécanismes de mesure d’équité, des journaux d’audit consultables par l’utilisateur et des indicateurs comparatifs anonymisés. Sans cela, le marché agentique se construira sur une asymétrie d’information durable, dont les conséquences cumulées peuvent dépasser largement le cadre des transactions individuelles.

FAQ

Combien de transactions ont vraiment eu lieu pendant Project Deal ?

L’expérience principale a vu 69 agents conclure 186 deals sur plus de 500 articles proposés, pour un volume total d’environ 4 000 dollars. Anthropic a précisé qu’au-delà du run principal, plusieurs simulations parallèles ont permis de comparer les performances de Claude Opus 4.5 et Claude Haiku 4.5 dans des conditions identiques.

Pourquoi l’écart entre Opus et Haiku passait-il inaperçu auprès des utilisateurs ?

Les participants notaient l’équité de leurs propres transactions sans avoir accès aux deals des autres ni à un référentiel objectif. Une transaction perçue comme correcte dans l’absolu pouvait pourtant être 10 ou 15 % moins favorable que la moyenne. Sans transparence sur le marché global, l’écart de capacité du modèle reste invisible.

Project Deal préfigure-t-il un produit commercial Anthropic ?

L’expérience est présentée comme purement exploratoire, sans calendrier produit annoncé. Anthropic a néanmoins indiqué vouloir publier d’autres expériences de ce type pour éclairer la conception de futurs systèmes agents commerciaux. La nature des publications scientifiques associées suggère un travail de fond, pas une démonstration ponctuelle.

Quels enseignements pour une PME qui veut déployer des agents IA ?

Trois leçons principales. D’abord, la qualité du modèle a un impact direct sur les résultats économiques, même quand les utilisateurs ne le perçoivent pas. Ensuite, la satisfaction utilisateur n’est pas un bon indicateur unique de la performance d’un agent. Enfin, instrumenter les décisions des agents avec des métriques objectives reste essentiel pour détecter les dérives silencieuses.

À suivre

Anthropic a annoncé vouloir publier d’autres expériences sur les marchés agents, et la communauté de recherche prépare des protocoles de mesure d’équité spécifiques aux agents commerciaux. La Commission européenne devrait publier des orientations dans les prochains mois. Pour aller plus loin, lisez notre test de Claude Sonnet 4.6 et notre dossier sur l’avenir des agents face au SaaS qui éclaire la portée économique de cette dynamique.

Avatar photo
À propos de l'auteur

MEGUEDMI Mohamed

Je suis Mohamed Meguedmi, fondateur et directeur éditorial de LagazetteIA. Multi-entrepreneur passionné de tech depuis toujours, j'ai intégré l'IA dans chacune de mes entreprises dès ses débuts. Chaque semaine, je teste des dizaines d'outils IA, compare les modèles et décortique les dernières avancées pour vous donner un avis concret, sans bullshit. Mon objectif avec LagazetteIA : vous faire gagner du temps et vous aider à prendre les bonnes décisions dans cette révolution technologique. La rédaction s'appuie sur des outils d'analyse modernes (incluant l'IA générative) et chaque publication est vérifiée et validée par mes soins avant mise en ligne. Profil LinkedIn : https://www.linkedin.com/in/mohamed-meguedmi/