- ▸ Deux chiffres incompatibles coexistent dans les études avril 2026 : 171 % ROI moyen et 79 % d'organisations en difficulté. Il faut choisir.
- ▸ La mécanique du biais : qui répond aux enquêtes ROI. Les succès parlent, les échecs se taisent — survivorship bias industriel.
- ▸ Grant Thornton révèle le vrai chiffre gênant : 78 % des dirigeants ne passeraient pas un audit de gouvernance IA en 90 jours.
- ▸ Ce que font les 20 % qui réussissent : gouvernance posée avant ROI, formation avant déploiement, courage d'arrêter ce qui ne marche pas.
- ▸ Parallèle historique : l'ERP des années 2000 affichait 300 % de ROI... pour 70 % d'échecs de projet. Même film, même casting.
Deux chiffres circulent dans les études IA d’avril 2026 et ils ne peuvent pas être vrais en même temps. D’un côté, ROI agents IA moyen de 171 %, porté à 192 % aux États-Unis. De l’autre, 79 % des organisations qui déclarent rencontrer des difficultés majeures d’adoption — dix points de plus qu’en 2025. Quelqu’un ment, et il est temps de dire qui.
La mécanique du double discours
Le premier chiffre vient d’enquêtes de type « state of agentic AI » menées par des éditeurs, des cabinets de conseil et des plateformes. Elles interrogent des entreprises qui ont déployé des agents et mesurent leur ROI auto-déclaré. Méthode solide en apparence, biais massif dans les faits.
Ce biais a un nom en statistique : survivorship bias. Les entreprises qui ont abandonné leur projet agent après six mois ne répondent pas à l’enquête suivante. Celles qui ont réussi, si. Résultat : la base déclarative surpondère mécaniquement les gagnants. Un ROI moyen de 171 % parmi les répondants ne dit rien du ROI moyen parmi les déployeurs. C’est comme mesurer la satisfaction des mariés en n’interrogeant que ceux qui sont encore mariés.
Le second chiffre, lui, vient d’études transverses type Grant Thornton ou Deloitte, qui interrogent des populations DSI et COMEX plus larges, incluant les projets morts ou dormants. Là, la réalité remonte : 79 % d’entreprises en difficulté, 54 % de C-suite admettant que l’adoption IA « déchire » leur organisation. Ce sont deux photos du même sujet prises depuis deux angles différents. L’erreur est de les commenter avec le même vocabulaire.
Ce que Grant Thornton nous dit vraiment
L’étude Grant Thornton 2026 livre un chiffre plus gênant : 78 % des dirigeants business ne se déclarent pas confiants dans leur capacité à passer un audit indépendant de gouvernance IA en 90 jours. Traduction : la majorité des entreprises qui utilisent de l’IA aujourd’hui ne sauraient pas documenter comment une décision est prise, qui est responsable, sur quelles données le modèle s’appuie.
Ce « AI proof gap » est le vrai sujet 2026. Parce qu’il arrive au moment exact où l’AI Act entre en phase de sanctions effective (août 2026) et où la CNIL a commencé à instruire ses premiers dossiers post-mise-en-conformité. Un projet IA qui délivre du ROI mais qui ne passe pas l’audit devient un projet IA qui coûte des amendes, pas qui rapporte des gains.
Parallèle historique : l’ERP des années 2000
Nous avons déjà vu ce film. Entre 1998 et 2005, les éditeurs ERP (SAP, Oracle, Baan) publiaient des études annonçant 300 % de ROI moyen sur leurs déploiements. En parallèle, les études indépendantes type Standish Group CHAOS Report révélaient 70 % de projets ERP en échec, dépassement de budget, ou abandon pur.
Les deux chiffres étaient vrais. 300 % de ROI chez ceux qui réussissaient, 70 % d’échecs dans la population totale. La médiane était à zéro. La moyenne à 25 %. Ce sont les écarts qui racontent la vraie histoire, pas la moyenne.
Vingt ans plus tard, nous refaisons la même erreur avec les agents. Les 171 % de ROI existent, mais ils ne sont pas distribués — ils sont concentrés sur une minorité. La majorité des entreprises est en dessous de zéro.
Ce que font les 20 % qui réussissent
Dans les études qui prennent la peine de segmenter, trois patterns ressortent chez les gagnants. D’abord, ils ont construit leur gouvernance avant de déployer le premier agent, pas après. Registres de risques, processus d’audit, rôles et responsabilités : ces briques sont posées en amont. Les perdants découvrent la conformité après le premier incident.
Ensuite, ils ont formé les équipes avant d’exiger un ROI. L’obligation d’alphabétisation IA de l’AI Act (article 4) n’est pas une formalité administrative. Les entreprises qui l’ont prise au sérieux en 2025 voient leurs équipes utiliser les outils correctement ; celles qui ont communiqué par mail voient leurs équipes faire des copier-coller dangereux dans ChatGPT.
Enfin, ils ont eu le courage d’arrêter ce qui ne marchait pas. Les entreprises qui enchaînent les POC sans jamais les tuer concentrent plus de 40 % de leur dette IA. Arrêter un projet qui ne produit pas de valeur est un acte de gouvernance, pas un échec managérial.
Le vrai scandale : l’absence d’audit indépendant
Aucun éditeur n’a intérêt à publier un ROI moyen réel. Aucun cabinet de conseil non plus — ils vendent les mêmes projets. Les études transversales type Deloitte ou McKinsey sont plus honnêtes, mais elles restent financées par des clients qui veulent un récit positif.
Il manque une institution indépendante, type Cour des comptes ou ENISA, qui auditerait un panel représentatif de projets IA et publierait les vrais chiffres. Les pouvoirs publics français et allemands, qui viennent d’annoncer leur partenariat avec Mistral et SAP, ont une fenêtre pour structurer cela. Sinon, nous continuerons à comparer des chiffres qui ne mesurent pas les mêmes choses, avec les mêmes dirigeants qui feront les mêmes erreurs qu’avec l’ERP.
Prédictions pour 2027
Trois évolutions probables se dessinent sur douze à dix-huit mois. Première prédiction : l’écart entre gagnants et perdants va se creuser. Les 20 % qui maîtrisent vont capturer l’essentiel des gains, les autres vont payer la facture de conformité sans contreparties. Seconde prédiction : les premières sanctions AI Act visibles viendront de cas emblématiques, probablement dans le recrutement ou la notation bancaire, et elles auront un effet ciseau sur les déploiements de masse. Troisième prédiction : les CODIR qui auront accepté d’arrêter un projet IA en 2026 seront ceux qui afficheront les vrais ROI en 2027.
Le conseil d’Adrian Ferreira, avec le recul de vingt ans d’observations techno : ne signez jamais un projet IA sans un critère d’arrêt documenté. Si, à six mois, le ROI n’est pas au rendez-vous, l’organisation doit avoir le droit et le devoir de stopper. C’est la seule ligne budgétaire qui distingue les 20 % qui réussissent du reste.
Ce que les CODIR devraient ajouter à leur ordre du jour
Trois questions simples à poser au prochain COMEX. Première question : combien de projets IA avons-nous lancés depuis dix-huit mois, et combien produisent un ROI mesurable, audité, contesté ? Deuxième question : qui, dans l’organigramme, porte la responsabilité individuelle d’un incident IA éventuel et a-t-il les pouvoirs nécessaires pour arrêter un projet ? Troisième question : quelle est notre prochaine échéance AI Act, et avons-nous les documents qui la couvriraient en cas d’audit demain matin ?
Si aucune réponse ne vient spontanément, vous êtes dans les 80 % qui se racontent une histoire. Ce n’est pas une faute, c’est un diagnostic. Le plan de traitement ressemble à celui qu’un médecin prescrit face à un patient asymptomatique : examen complet d’abord, traitement ciblé ensuite, suivi trimestriel. Pas de potion miracle.
Ce qu’il faut retenir
Les 171 % et les 79 % sont deux visages de la même réalité : une technologie puissante qui délivre quand elle est cadrée, qui détruit quand elle ne l’est pas. Notre rôle n’est pas de choisir un chiffre, c’est de construire les systèmes qui permettent de basculer de la mauvaise statistique vers la bonne. Cela passe par la gouvernance, la formation, et le courage de dire non quand il faut.
Le reste, c’est de la vente.
À lire en complément : méthode pour mesurer le ROI d’un agent IA et la CNIL arme l’AI Act.
Sources : WRITER — Enterprise AI adoption 2026 et Grant Thornton AI Impact Survey 2026.



