Les outils d’intelligence artificielle prédictive se déploient dans les systèmes judiciaires de plusieurs pays, de l’évaluation du risque de récidive à la prédiction des issues de procès. Si ces technologies promettent une justice plus rapide et cohérente, elles soulèvent des questions majeures de biais algorithmiques, de transparence et de droits fondamentaux.
Comment fonctionne la justice prédictive
La justice prédictive recouvre deux usages distincts. Le premier concerne l’évaluation du risque dans les décisions pénales : un algorithme analyse le profil du prévenu — antécédents judiciaires, situation socio-économique, âge — pour estimer la probabilité de récidive. Le juge utilise cette estimation pour moduler la peine ou décider d’une libération conditionnelle. COMPAS, développé par Equivant, est le plus connu de ces outils, utilisé dans 12 États américains.
Le second usage porte sur la prédiction des issues juridiques. Des plateformes comme Predictice en France analysent des millions de décisions de justice pour estimer les chances de succès d’un recours, le montant probable des indemnités ou la durée prévisible d’une procédure. Ces outils s’adressent aux avocats et aux justiciables, qui ajustent leur stratégie en fonction des probabilités.
Les biais algorithmiques au cœur du débat
L’étude ProPublica de 2016 sur COMPAS a révélé que l’algorithme attribuait aux accusés noirs un risque de récidive deux fois supérieur à celui des accusés blancs, à profil comparable. Dix ans plus tard, le problème persiste. Une méta-analyse publiée dans le journal Science en février 2026 confirme que les outils d’évaluation du risque reproduisent et amplifient les disparités raciales et socio-économiques présentes dans les données historiques.
Le mécanisme est structurel. Les données d’entraînement reflètent des décennies de pratiques judiciaires inégalitaires. Un algorithme entraîné sur ces données apprend que certains codes postaux, niveaux de revenu ou origines ethniques sont corrélés à des taux de récidive plus élevés — non parce que ces facteurs causent la récidive, mais parce que les populations concernées sont davantage surveillées et poursuivies.
L’Europe entre régulation et expérimentation
L’AI Act européen classe les systèmes d’IA utilisés dans le cadre judiciaire comme « à haut risque », imposant des obligations de transparence, d’audit et de supervision humaine. L’article 6 interdit explicitement les systèmes de scoring social, mais autorise les outils d’aide à la décision judiciaire sous conditions strictes : le juge doit toujours conserver le pouvoir de décision final, et le justiciable doit être informé de l’utilisation d’un outil algorithmique.
La France se distingue par son approche prudente. L’article 33 de la loi de programmation pour la justice de 2019 interdit l’utilisation des données d’identité des magistrats et des greffiers pour évaluer ou prédire leurs pratiques. Predictice opère dans un cadre limité à l’analyse statistique des décisions publiées, sans profiler les juges individuellement. Cette ligne rouge vise à protéger l’indépendance judiciaire.
Les États-Unis : un laboratoire grandeur nature
Aux États-Unis, la justice prédictive est opérationnelle à grande échelle. Plus de 200 juridictions utilisent des outils d’évaluation du risque pour les décisions de mise en liberté sous caution, de probation et de libération conditionnelle. Le Public Safety Assessment (PSA), développé par la Laura and John Arnold Foundation, est utilisé dans 40 juridictions et analyse uniquement les antécédents judiciaires, excluant les variables socio-économiques.
Les résultats sont mitigés. Une étude de la RAND Corporation publiée en 2025 montre que l’utilisation du PSA a réduit de 16 % les détentions provisoires dans les juridictions adoptantes, sans augmentation mesurable de la criminalité. Cependant, les disparités raciales dans les décisions de cautionnement n’ont diminué que de 4 %, bien en deçà des espoirs initiaux.
L’IA générative arrive dans les tribunaux
Les modèles de langage transforment la pratique juridique au-delà de la prédiction. Harvey, startup spécialisée dans l’IA juridique, propose un assistant basé sur GPT-5 qui rédige des mémoires, analyse des contrats et identifie la jurisprudence pertinente. Allen & Overy, premier grand cabinet à déployer l’outil, rapporte une réduction de 40 % du temps consacré à la recherche juridique.
Les risques d’hallucination demeurent. En 2023, un avocat new-yorkais avait soumis des citations jurisprudentielles inventées par ChatGPT. En 2026, les outils spécialisés comme Harvey incluent des mécanismes de vérification croisée avec les bases de données juridiques officielles, mais aucun système ne garantit une précision de 100 %. La supervision humaine reste impérative pour tout document soumis à un tribunal.
FAQ
Un algorithme peut-il remplacer un juge ?
Non, et la plupart des législations l’interdisent explicitement. Les outils d’IA judiciaire sont conçus comme des aides à la décision. Le juge conserve toujours le pouvoir de suivre ou d’ignorer la recommandation algorithmique.
Les justiciables sont-ils informés quand l’IA est utilisée ?
En Europe, l’AI Act impose l’information du justiciable. Aux États-Unis, la pratique varie selon les juridictions. Certains États imposent la transparence, d’autres non. Le droit de contester une décision influencée par un algorithme reste un sujet de débat juridique actif.
Predictice est-il fiable pour estimer les chances de succès d’un procès ?
Predictice fournit des statistiques basées sur les décisions publiées, mais chaque affaire comporte des éléments uniques que l’algorithme ne peut capturer. L’outil est utile pour situer une affaire dans un contexte jurisprudentiel, mais ne remplace pas l’analyse d’un avocat.



