- ▸ Ce qui change concrètement pour les juristes
- ▸ Mike : un outil d'IA open-source pour le droit
- ▸ Fonctionnalités clés : précision verbatim et flexibilité documentaire
- ▸ Mike et la flexibilité des modèles d'IA
Mike se présente comme une alternative open-source aux plateformes d’IA juridique propriétaires Harvey et Legora. Disponible en version hébergée ou à déployer depuis le code source, l’outil propose une interface conversationnelle qui lit les documents, cite verbatim et exécute des workflows multi-étapes — sans contrat d’entreprise préalable.
Points clés – Mike est une alternative open-source à Harvey et Legora, accessible sans contrat d’entreprise ni engagement annuel. – L’outil gère contrats, dossiers et workflows juridiques avec citation verbatim des documents pour limiter le risque d’hallucination. – Les utilisateurs intègrent leurs propres clés API Claude (Anthropic) ou Gemini (Google) pour conserver le contrôle des modèles. – Mike propose une extraction tabulaire à grande échelle et la création de workflows réutilisables sur des centaines de documents en parallèle. – L’outil est disponible en version hébergée clés en main ou à auto-déployer depuis le code source publié par l’éditeur.
Ce qui change concrètement pour les juristes
L’arrivée d’un outil open-source positionné en substitut direct de Harvey et Legora redessine l’accès des cabinets et directions juridiques aux fonctionnalités d’IA dites « legal-grade ». Jusqu’ici, ces fonctionnalités — interface conversationnelle adossée à un corpus documentaire propriétaire, extraction de clauses, rédaction et révision contractuelle — supposaient un contrat d’entreprise négocié, généralement assorti d’un engagement pluriannuel et d’un coût d’entrée élevé.
Mike, présenté sur son site officiel comme « the open-source alternative to Harvey and Legora », propose la même promesse fonctionnelle dans un cadre différent. Le code source est publié, l’outil peut être auto-hébergé sur l’infrastructure du cabinet, et les modèles d’IA utilisés (Claude ou Gemini) sont apportés par l’utilisateur via ses propres clés API. Cette inversion du modèle économique — du SaaS propriétaire vers le self-hosting modulaire — pose des questions juridiques inédites pour les directions juridiques européennes soumises au RGPD et, à compter du 2 août 2026, à la phase 2 de l’AI Act.
Mike : un outil d’IA open-source pour le droit
Pour comprendre le positionnement de Mike, il faut revenir à la nature de la demande qu’il prétend couvrir. Le marché de l’IA juridique s’est structuré ces deux dernières années autour de plateformes propriétaires verticales, dont Harvey (États-Unis) et Legora (Suède) sont les figures les plus visibles auprès des cabinets internationaux. Ces plateformes facturent l’accès à une stack complète : interface, modèles, hébergement, garanties contractuelles.
Mike rebat les cartes en désagrégeant cette stack. L’éditeur revendique « a chat interface that reads your documents, cites verbatim, runs multi-step workflows, and drafts and edits contracts end-to-end » — soit une interface de discussion qui lit vos documents, cite verbatim, exécute des workflows multi-étapes et rédige et édite des contrats de bout en bout. Cette définition recoupe celle des concurrents propriétaires sur le périmètre fonctionnel.
La différence se joue sur trois axes. Premièrement, le code source est ouvert : tout cabinet ou direction juridique peut l’auditer, le modifier, l’auto-déployer. Deuxièmement, l’outil est bring your own model — l’utilisateur connecte ses propres clés API. Troisièmement, deux modes de consommation coexistent : une version hébergée par l’éditeur, et une version à déployer depuis les sources sur l’infrastructure du client.
Pour comprendre — bring your own model Le modèle « bring your own model » (BYOM) consiste à séparer l’application (interface, workflows, base documentaire) du moteur d’IA sous-jacent. L’utilisateur fournit ses propres identifiants d’accès aux modèles de fournisseurs comme Anthropic (Claude) ou Google (Gemini). Cette architecture transfère le contrat d’usage du modèle au client final, et non plus à l’éditeur de l’application.
Ce qui nous amène à examiner en détail ce que Mike sait faire — et où il place les garde-fous.
Fonctionnalités clés : précision verbatim et flexibilité documentaire
Le risque numéro un d’une IA juridique reste l’hallucination — la production d’une référence à un article, une jurisprudence ou une clause qui n’existe pas dans le corpus. Plusieurs décisions disciplinaires aux États-Unis depuis 2023 ont sanctionné des avocats ayant déposé des conclusions citant des décisions inventées par ChatGPT. La traçabilité des citations est donc devenue le critère discriminant des outils dits « legal-grade ».
Mike répond à cet enjeu par une architecture matter-scoped. L’éditeur la décrit ainsi : « Matter-scoped workspaces. Upload credit agreements, SPAs, leases, and diligence packs into a project; the assistant keeps full context across every conversation and every document. » Soit, en français : des espaces de travail circonscrits à un dossier — l’utilisateur charge contrats de crédit, SPA (share purchase agreements), baux et pochettes de due diligence dans un projet, et l’assistant conserve le contexte complet sur toutes les conversations et tous les documents.
Cette logique de matter — la notion anglo-saxonne de dossier client — limite mécaniquement le périmètre dans lequel le modèle puise ses réponses. Le modèle ne répond pas « en général », il répond « dans ce dossier ». Toute réponse renvoie à une page et à un extrait précis du corpus chargé.
L’éditeur revendique également une fonctionnalité d’extraction tabulaire à grande échelle : « Spreadsheet-style extraction across hundreds of documents in parallel. Every cell is verifiably cited back to a page and a quote, with no hallucinated answers or dead links. » Chaque cellule du tableau extrait est rattachée à une page et à une citation vérifiable, sans réponse hallucinée ni lien mort.
Pour un cabinet en due diligence sur un dossier de 500 contrats, cette extraction parallélisée constitue le cœur du gain de productivité — c’est précisément la fonctionnalité qui a fait le succès commercial de Harvey auprès des cabinets d’affaires. La proposer en open-source soulève une question structurelle : quelle est la valeur défendable d’une plateforme propriétaire si la fonction la plus rentable devient un commun ?
Mike et la flexibilité des modèles d’IA
Le choix architectural du bring your own model mérite un développement spécifique, car il a des conséquences juridiques directes. Mike permet à l’utilisateur de « plug in your own Claude or Gemini keys, and keep full control of the models you use » — connecter ses propres clés Claude ou Gemini, et conserver le contrôle total des modèles utilisés.
En pratique, cela signifie que le contrat de traitement des données conversationnelles n’est plus signé entre le cabinet et l’éditeur de l’outil, mais entre le cabinet et le fournisseur du modèle (Anthropic pour Claude, Google pour Gemini). Cette désintermédiation a des conséquences sur le RGPD et sur l’AI Act.
Côté RGPD, l’article 28 impose un contrat de sous-traitance entre responsable de traitement et sous-traitant. Si Mike est auto-hébergé et utilise les clés API du cabinet, le sous-traitant principal devient le fournisseur du modèle. Cela suppose pour le cabinet de signer un Data Processing Addendum directement avec Anthropic ou Google, et de vérifier les garanties de localisation des données — sujet sensible pour les directions juridiques européennes qui doivent documenter les transferts hors UE au titre du chapitre V du règlement (UE) 2016/679.
Côté AI Act, le règlement (UE) 2024/1689 distingue les fournisseurs et déployeurs de systèmes d’IA. En auto-hébergeant Mike avec ses propres clés modèles, un cabinet pourrait, selon les usages, basculer du statut de simple déployeur à celui de fournisseur d’un système d’IA — avec des obligations documentaires nettement renforcées.
Mike : une solution open-source pour tous
L’éditeur résume sa proposition comme « a working substitute for Harvey and Legora, available as a hosted product or to self-deploy from source » — un substitut fonctionnel à Harvey et Legora, disponible en produit hébergé ou à auto-déployer depuis le code source. Ce double mode de distribution mérite analyse.
La version hébergée s’adresse aux structures qui veulent tester rapidement l’outil sans mobiliser d’équipe DSI. Elle s’inscrit dans une logique SaaS classique, avec les contraintes de localisation des données et de réversibilité qu’imposent les standards de la profession.
La version auto-déployée s’adresse aux cabinets et directions juridiques qui ont des exigences fortes de souveraineté sur les données client. En auto-hébergeant Mike sur leur propre infrastructure (cloud privé, on-premise, environnement souverain de type SecNumCloud), ils conservent la maîtrise complète du flux documentaire. Seuls les appels au modèle d’IA sortent du périmètre — et encore, à condition d’utiliser les API publiques de Claude ou Gemini plutôt qu’un modèle local.
Cette flexibilité est inédite sur le marché de l’IA juridique professionnelle, traditionnellement verrouillé par des licences SaaS rigides.
Analyse contradictoire : promesse et angles morts
Présenter Mike comme une alternative open-source légitime à Harvey et Legora suppose d’examiner les arguments en faveur — et les angles morts.
En faveur. L’open-source apporte trois bénéfices documentés : auditabilité du code (utile pour démontrer la conformité AI Act sur les systèmes à haut risque), réversibilité (pas de lock-in propriétaire), et adaptation aux spécificités locales (un cabinet français peut adapter les prompts au droit français, ce qu’un éditeur américain n’optimise pas). La citation verbatim répond directement au risque d’hallucination, qui reste le principal obstacle déontologique à l’adoption de l’IA générative en cabinet.
Angles morts. Plusieurs questions restent ouvertes selon les sources disponibles à ce jour. Aucune information publique n’est communiquée sur la gouvernance du projet, son modèle de soutenabilité économique, ni l’identité de ses contributeurs. La question de la maintenance de long terme est centrale : un cabinet qui auto-déploie un outil dont la maintenance dépend d’un éditeur unique prend un risque opérationnel qu’il n’aurait pas avec Harvey ou Legora — adossés à des levées de fonds importantes et à des équipes dédiées.
La question de la responsabilité en cas de défaillance est également non tranchée. Avec un éditeur SaaS classique, le contrat client engage la responsabilité du fournisseur. Avec un outil open-source auto-hébergé utilisant les clés API du client, la chaîne de responsabilité se fragmente : qui répond d’une fuite de données ? D’une hallucination dans une opinion juridique livrée ? Le cabinet, l’éditeur du logiciel, le fournisseur du modèle ?
FAQ
Mike est-il vraiment gratuit à utiliser ?
Le code source de Mike est ouvert et l’auto-déploiement ne nécessite pas de contrat d’entreprise. Mais l’usage n’est pas gratuit pour autant : les appels aux modèles Claude ou Gemini sont facturés au token par les fournisseurs respectifs (Anthropic, Google). Sur un dossier d’extraction de plusieurs centaines de contrats, ces coûts d’inférence peuvent devenir significatifs et doivent être budgétés.
Quels modèles d’IA peut-on intégrer à Mike ?
Selon les informations publiées par l’éditeur, Mike accepte les clés API de Claude (Anthropic) et de Gemini (Google). L’utilisateur reste libre du choix du modèle au sein de ces familles. Les implications RGPD et AI Act varient selon le modèle retenu, sa localisation d’inférence et le contrat conclu avec le fournisseur.
Mike convient-il à un cabinet français soumis au RGPD ?
L’auto-déploiement de Mike est techniquement compatible avec une architecture conforme RGPD, à condition de signer un Data Processing Addendum avec le fournisseur du modèle, de documenter les transferts hors UE le cas échéant, et d’inscrire l’outil dans le registre des traitements. La conformité ne tient pas à l’outil seul, mais à son intégration dans le système d’information du cabinet.
Calendrier et points de vigilance
Au 30 avril 2026, Mike est disponible en version hébergée et en auto-déploiement depuis le code source. Aucune feuille de route publique consolidée n’est communiquée sur les fonctionnalités à venir.
Trois échéances réglementaires structurent l’année 2026 pour les déployeurs européens : la phase 2 de l’AI Act le 2 août 2026, qui impose le registre des systèmes à haut risque ; la publication par la Commission du formulaire harmonisé avant l’été 2026 ; les premières recommandations sectorielles de la CNIL sur l’IA générative en milieu juridique, dont la doctrine est en cours de consolidation.
Reste une question ouverte : un outil open-source peut-il atteindre le niveau de garantie contractuelle qu’exigent les directions juridiques des grands groupes, ou restera-t-il cantonné aux cabinets prêts à internaliser le risque en échange d’une indépendance totale ? La réponse se jouera moins sur la qualité technique du produit que sur la maturité de sa gouvernance.



