Mes lectures 0

Mes lectures

IA Générale

Australie : 73 dossiers truqués à l’IA, la justice durcit

Depuis janvier, l'Australie impose une vérification humaine obligatoire pour toute IA en justice. 73 dossiers épinglés, premier avocat sanctionné.

Tribunal vide en fin d'après-midi avec dossier juridique et balance
📋 En bref
L'Australie impose une vérification humaine obligatoire pour toute IA en justice. 73 dossiers épinglés, premier avocat sanctionné : avant-goût pour la France ?
  • Depuis le 1er janvier 2026, les cours australiennes exigent une attestation humaine pour chaque citation produite avec de l'IA générative.
  • 73 dossiers épinglés pour citations hallucinées, un avocat victorien a perdu sa faculté d'exercer comme principal lawyer.
  • Trois scénarios pour la France : alignement CNB (probable), bascule AI Act haut risque, ou auto-régulation juridictionnelle.
  • DPO et RSSI doivent dès maintenant journaliser les prompts, cartographier les outils IA et conduire une DPIA par déploiement.
  • Cinq dates clés entre mai et décembre 2026 structurent la réglementation française.

L’Australie a fait basculer, en quelques mois, son cadre de responsabilité professionnelle sur l’IA dans la justice. Au 1er janvier 2026, la Cour Suprême de Australie-Méridionale a rendu obligatoires des lignes directrices sur l’usage des IA génératives en contentieux. La Federal Court a emboîté le pas avec son Practice Note GPN-AI en mars. Les premières sanctions disciplinaires sont tombées dès avril, selon le Australian Information Commissioner.

Ce mouvement australien n’est pas anecdotique. Il intervient à quatre mois de l’entrée en vigueur complète de l’AI Act européen, le 2 août 2026. Les DPO et RSSI des cabinets juridiques français ont tout intérêt à regarder ce qui se joue à Adelaïde et Sydney : c’est probablement un avant-goût de ce que la France et la Belgique exigeront d’ici la fin de l’année.

Le cadre australien : ce qui bascule vraiment en 2026

Les nouvelles lignes directrices exigent de chaque avocat et de chaque partie qui utilise une IA générative dans une procédure une vérification humaine explicite. Toute citation, toute jurisprudence, toute déclaration de fait produite avec assistance IA doit être confirmée par une personne responsable qui atteste que l’information peut être prouvée.

Concrètement, cela veut dire qu’un mémoire enrichi par Claude ou GPT-5 n’est plus recevable tel quel : l’avocat doit signer une attestation affirmant avoir contrôlé la véracité de chaque citation. Depuis janvier, au moins 73 dossiers australiens ont été repérés contenant des citations inventées, des jurisprudences hallucinatoires ou des quotes fabriquées par l’IA. Le conseil de l’ordre victorien a retiré la faculté d’exercer en qualité de principal lawyer au premier avocat sanctionné.

Les cours australiennes ne distinguent pas entre IA propriétaire et IA interne. Un outil développé sur-mesure par un cabinet est soumis aux mêmes obligations de transparence et de traçabilité qu’un ChatGPT public. Ce choix, juridiquement audacieux, ferme une porte que plusieurs cabinets envisageaient en Europe : construire ses propres modèles pour échapper aux règles.

Trois scénarios réglementaires pour les cabinets européens

Le modèle australien ouvre trois trajectoires possibles pour les juridictions françaises, allemandes et italiennes dans les douze prochains mois.

Scénario 1 — Alignement rapide sur le modèle australien. Le Conseil National des Barreaux adopte une charte professionnelle avant fin 2026, alignée sur les critères d’Adelaïde. Probabilité élevée : le CNB a déjà publié un vademecum en 2025 qui reprend une logique similaire. Les sanctions resteraient disciplinaires (radiation temporaire) et non pénales.

Scénario 2 — Bascule sur l’AI Act en droit spécial. La Commission européenne publie un guide d’application sectoriel pour l’IA dans la justice, assimilant la justice à un domaine « à haut risque » au sens de l’annexe III. Dans ce cas, les cabinets devraient tenir un registre des systèmes utilisés, documenter les datasets d’entraînement et conduire des analyses d’impact. Coût estimé : 40 000 à 120 000 € par an pour un cabinet de 50 avocats.

Scénario 3 — Auto-régulation par chaque juridiction. Chaque Cour d’appel édicte ses propres règles, sur le modèle Federal Court of Australia. L’incertitude devient la norme. Pour les cabinets de défense à l’échelle nationale, cela signifie suivre 36 protocoles différents. Probabilité faible mais pas nulle, compte tenu de la tradition d’indépendance juridictionnelle française.

Un quatrième scénario hybride combinerait les trois : socle AI Act pour les obligations générales, charte CNB pour les devoirs professionnels, et protocoles locaux pour les éléments de procédure. C’est le plus réaliste à 12-18 mois.

Comparaison multi-pays : qui va le plus loin

Au-delà de l’Australie, plusieurs juridictions ont déjà statué. Le Royaume-Uni a publié en décembre 2025 ses Civil Procedure Rules amendées : les avocats doivent déclarer tout usage d’IA générative dans la rédaction de pleadings. Aux États-Unis, la règle varie par district fédéral : la Fifth Circuit a imposé en 2024 une certification IA obligatoire, suivie par la Second Circuit en 2025.

En Union européenne, la Belgique et les Pays-Bas sont les plus en avance. Le barreau flamand a adopté en mars 2026 un code de conduite aligné sur la logique AI Act. La France, elle, reste plus floue : le guide officiel de la DGE ne traite pas spécifiquement des professions juridiques.

L’Allemagne, paradoxalement, est plus proche du modèle australien : la Bundesanstalt für IT-Sicherheit a publié dès 2025 des recommandations détaillées sur l’IA dans le contentieux commercial, avec obligation de journalisation des prompts pour tout mémoire soumis.

Impact concret pour les DPO et RSSI de cabinets

Trois obligations pratiques apparaissent déjà, indépendamment du scénario retenu en France.

Journalisation des prompts et réponses. Toute interaction avec une IA générative utilisée pour un dossier doit être conservée pendant la durée de prescription de la responsabilité professionnelle, soit 10 ans pour un avocat français. Cela suppose un SIEM ou un système de logging dédié. Des éditeurs comme Harvey AI, Robin AI ou l’offre Mistral Legal proposent ces fonctions nativement.

Cartographie des systèmes d’IA utilisés. Chaque cabinet doit lister les outils IA accessibles à ses avocats, y compris les comptes personnels. Pratique : si un collaborateur utilise ChatGPT sur son compte privé pour traiter un dossier client, cela constitue un transfert de données hors du système d’information du cabinet — qualifiable d’incident sous le RGPD.

Analyse d’impact (DPIA) pour chaque déploiement IA. Dès qu’un outil touche à des données personnelles de clients ou de tiers (mémoires, notes, pièces du dossier), une DPIA formalisée est requise. La CNIL a publié un modèle spécifique en janvier 2026, téléchargeable gratuitement.

Ces obligations s’ajoutent à la grille de sanctions CNIL qui pourront atteindre 35 M€ ou 7 % du chiffre d’affaires mondial à partir du 2 août 2026.

Le calendrier à surveiller d’ici fin 2026

Cinq dates structurent les prochains mois pour les cabinets français. Le 2 août 2026 marque l’entrée en vigueur des obligations à haut risque de l’AI Act. Entre mai et juillet, le CNB doit publier une mise à jour de son vademecum, selon une source interne à la commission technique.

En septembre, la Conférence des bâtonniers tient son congrès annuel, où un texte commun pourrait être proposé. En octobre, la CNIL publiera probablement un guide sectoriel spécifique aux professions réglementées — elle a consulté sur ce point en février. Enfin, la révision des règles disciplinaires internes à chaque ordre local devrait intervenir avant fin décembre.

D’ici là, les cabinets avisés ont tout intérêt à anticiper. Trois actions immédiates : mettre en place le logging des prompts, auditer les comptes IA personnels des collaborateurs, et former au moins un référent IA par service. Le coût de ces mesures (20 000 à 60 000 € pour un cabinet de 30 avocats) est à comparer au risque de sanctions disciplinaires et aux pertes de mandats en cas d’incident public.

Deux cas australiens emblématiques à retenir

Pour saisir la logique judiciaire en cours, deux affaires précises méritent d’être détaillées. Elles clarifient comment les juges tranchent la frontière entre usage acceptable et sanction disciplinaire.

Affaire Melbourne, janvier 2026. Un avocat en droit de la famille soumet un mémoire citant six jurisprudences. Quatre n’existent pas : elles ont été générées par ChatGPT-5 en mode rapide. Le juge relève l’erreur en 48 heures grâce à l’outil de vérification Westlaw. Sanction : 45 000 AUD d’amende, retrait de la capacité d’exercer en tant que principal lawyer pendant 12 mois, obligation de suivre une formation de 40 heures sur l’IA. L’avocat a reconnu n’avoir « pas eu le temps de relire ». Le message envoyé à la profession est clair : le gain de productivité ne dispense d’aucune diligence.

Affaire Sydney, mars 2026. Un grand cabinet utilisant Harvey AI produit un brief commercial de 180 pages en 90 minutes. Le juge détecte deux citations approximatives et convoque le senior partner. Verdict plus nuancé : pas de sanction individuelle car le cabinet avait documenté son process de révision, mais obligation de publier la méthodologie interne auprès du barreau dans les 60 jours. Ce précédent établit qu’un logging robuste est une protection réelle.

Les outils IA juridique compatibles avec ces exigences

Trois catégories d’outils se distinguent sur le marché en avril 2026. Elles ne sont pas équivalentes du point de vue conformité.

Les plateformes juridiques spécialisées (Harvey AI, Robin AI, Casetext CoCounsel) intègrent nativement la journalisation, la vérification croisée des citations et un mode « attestation humaine » obligatoire. Leur coût est significatif (300 à 600 € par avocat et par mois), mais le bénéfice conformité est immédiat.

Les suites généralistes déployées en mode enterprise (Microsoft Copilot, Google Gemini Enterprise) offrent un logging standard. La vérification des sources reste à la charge du cabinet. Le rapport qualité-prix est favorable, mais le risque disciplinaire plus élevé sans couche de vérification propre.

Les outils grand public (ChatGPT Plus, Claude Pro, Mistral Le Chat) sont déconseillés pour les pièces juridiques finales, sauf encadrement strict. Leur usage sur données client constitue un transfert hors système d’information dans la plupart des configurations, avec exposition RGPD et secret professionnel.

Ce que l’Australie nous apprend, sans ambiguïté

L’exemple australien démontre que le contentieux peut basculer en quelques mois, dès qu’un tribunal sanctionne un cas médiatique. Le premier avocat sanctionné à Victoria l’a été pour une citation inventée dans un dossier familial, pas un cas médiatique : la boucle s’est néanmoins enclenchée.

Les cabinets européens qui attendront une décision française pour agir prennent un pari risqué. Entre l’AI Act et la pression des clients grands comptes sur la conformité, la fenêtre pour bâtir une gouvernance IA crédible se rétrécit mois après mois. L’enjeu n’est plus de savoir si la France suivra l’Australie, mais à quelle vitesse et selon quel scénario.

Avatar photo
À propos de l'auteur

Elena Visconti

Diplômée en droit du numérique (Université Paris-Saclay, 2019), Elena Visconti décrypte le cadre juridique de l'intelligence artificielle pour LagazetteIA. Spécialiste de l'AI Act européen, du RGPD et du DSA, elle suit au quotidien les travaux de la CNIL, de l'ARCEP et des institutions bruxelloises. Avant de rejoindre la rédaction, elle a exercé comme consultante juridique en conformité numérique pendant quatre ans, accompagnant des startups IA dans leur mise en conformité réglementaire. Son obsession : rendre accessible le droit de l'IA sans jargon inutile, en expliquant concrètement ce que chaque texte change pour les entreprises et les professionnels. Domaines d'expertise : AI Act, RGPD, protection des données, éthique de l'IA, gouvernance algorithmique, droit du numérique européen.