Mes lectures 0

Mes lectures

IA Générale

Microsoft Purview × Copilot : le DPO bloque enfin les prompts à risque

Microsoft Purview DLP couvre les prompts Copilot dès fin avril 2026. Blocage temps réel des NIR, IBAN, PHI : DPO et RSSI reprennent la main sur l'IA générative.

Plan architectural avec loupe et stylo plume sur table en bois sombre
📋 En bref
Microsoft Purview DLP couvre les prompts Copilot dès fin avril 2026 : NIR, IBAN, PHI bloqués en temps réel pour les DPO et RSSI.
  • Quoi : généralisation Purview DLP aux prompts entrants Copilot et Copilot Studio fin avril 2026.
  • Pourquoi c'est fort : première fois qu'un garde-fou natif s'intercale entre l'utilisateur et le modèle.
  • Positionnement : Microsoft documente la conformité AI Act par défaut, Google Workspace et Salesforce en retard.
  • Chiffre clé : 12 €/utilisateur/mois en supplément licence E5, 24 000 €/mois pour 2 000 collaborateurs.
  • Réserve : la fonction couvre les prompts entrants, pas systématiquement les sorties générées par Copilot avant H2 2026.

Microsoft Purview DLP couvre désormais les prompts envoyés à Copilot. À partir de fin avril 2026, les administrateurs peuvent bloquer en temps réel les requêtes contenant données financières, numéros de Sécurité sociale ou IBAN. Pour les DPO et RSSI français, c’est la première fois qu’un garde-fou natif s’intercale entre l’utilisateur et le modèle. On décrypte ce que ça change vraiment.

Ce que Purview DLP couvre désormais sur Copilot

Microsoft a généralisé la protection Data Loss Prevention aux prompts entrants de Microsoft 365 Copilot et de l’écosystème Copilot Studio. Concrètement, lorsqu’un utilisateur saisit une requête contenant un identifiant sensible, l’administrateur peut configurer un blocage avant que le prompt n’atteigne le modèle, ou un avertissement avec confirmation explicite.

Les classificateurs natifs détectent les types de données usuels : numéros de carte bancaire, IBAN, NIR français, adresses e-mail privées, identifiants de santé, numéros de passeport. Les organisations peuvent également définir des classificateurs personnalisés via expressions régulières, dictionnaires de mots-clés, ou modèles d’apprentissage trainés sur leurs propres référentiels documentaires.

Trois actions sont possibles : auditer sans bloquer, avertir l’utilisateur avec confirmation requise, ou bloquer entièrement avec message d’erreur paramétrable. La granularité descend au niveau de l’utilisateur, du groupe Azure AD, ou du tenant entier. Les exceptions par site SharePoint ou par application Microsoft 365 sont également supportées.

L’intégration est native dans le portail Microsoft Purview, accessible aux administrateurs Compliance et aux DPO disposant des rôles ad hoc. Les politiques existantes pour Exchange Online, SharePoint et Teams peuvent être réutilisées et étendues à Copilot, ce qui réduit considérablement le travail de configuration initial.

Trois scénarios qui changent le rapport DPO-Copilot

Scénario 1 : protection contre l’exfiltration accidentelle

Avant avril 2026, un commercial qui copiait dans Copilot un export Excel client contenant 800 NIR transmettait ces données aux serveurs Microsoft sans contrôle natif. Avec Purview DLP, la requête est interceptée avant l’envoi au modèle. L’incident est journalisé dans le portail Compliance, attribuable à un utilisateur, horodaté, avec stockage du contexte (sans le contenu sensible lui-même).

L’enjeu est massif côté CNIL. Une telle exfiltration constituait jusqu’ici une violation de l’article 32 RGPD relatif à la sécurité du traitement, sans piste documentaire pour démontrer la diligence. Désormais, le DPO peut produire un journal et une politique opposable lors d’un contrôle ou d’une notification de violation à l’autorité.

Les statistiques internes Microsoft, partagées lors de la conférence Ignite 2026, indiquent qu’environ 4 % des prompts émis dans les organisations grand compte contiennent au moins une donnée sensible non intentionnelle. Sur un parc de 5 000 utilisateurs émettant 30 prompts par jour, cela représente 6 000 incidents potentiels par jour. La fonction Purview DLP transforme ce volume invisible en contrôle exploitable.

Scénario 2 : conformité sectorielle santé et finance

Les hôpitaux soumis à la certification HDS et les établissements bancaires couverts par DORA demandent depuis 18 mois des garanties écrites avant tout déploiement de Copilot. La généralisation Purview DLP comble une carence majeure et débloque plusieurs centaines de projets en attente.

Pour la santé, les classificateurs PHI (Protected Health Information) permettent de bloquer numéros de dossier patient, identifiants RPPS, résultats biologiques, et codes CIM-10. Pour la banque, les détections IBAN, BIC et données de carte couvrent les exigences PCI DSS niveau 1. Les déploiements bloqués depuis 2025 chez plusieurs ARS et banques mutualistes peuvent reprendre, sous réserve d’une analyse d’impact AIPD mise à jour.

L’AP-HP, qui pilote depuis février 2025 un POC Copilot sur 200 médecins, devrait selon nos sources passer en généralisation au S2 2026 grâce à cette nouvelle couche de contrôle. Les retours qualitatifs internes mentionnent une réduction de 80 % du temps de rédaction de comptes rendus opératoires, à condition que la protection des données soit verrouillée.

Scénario 3 : agents IA Agent 365 et chaîne de responsabilité

Le lancement d’Agent 365, plan de contrôle Microsoft pour les agents IA, ajoute une dimension supplémentaire : chaque agent autonome reçoit une identité, des permissions, un propriétaire et un journal d’audit. Purview DLP s’applique à chaque interaction agent-utilisateur ou agent-agent, ce qui ferme un angle mort majeur.

Le DPO peut désormais cartographier les flux de données entre agents internes et services Copilot, identifier les chaînes d’exfiltration potentielles, et imposer des règles différenciées par criticité. C’est l’arrivée de la gouvernance des agents au même niveau que celle des comptes humains, avec les mêmes obligations de revue d’accès périodique.

Cette évolution répond directement aux recommandations du Comité européen de la protection des données publiées en mars 2026, qui imposent aux responsables de traitement de documenter les flux IA inter-systèmes. Sans Agent 365 et Purview DLP combinés, la documentation devenait quasi impossible à produire à la main.

Comparaison multi-pays : où Microsoft prend de l’avance

En Europe, l’AI Act applicable au 2 août 2026 impose pour les systèmes IA à risque élevé une journalisation des entrées-sorties et une gestion documentaire des données de formation et d’inférence. La fonction Purview DLP intégrée à Copilot remplit la quasi-totalité de cette exigence côté inférence.

Aux États-Unis, le NIST AI Risk Management Framework v1.1 publié en mars 2026 recommande des contrôles équivalents sans les rendre obligatoires. La FTC a néanmoins ouvert plusieurs enquêtes sur des éditeurs n’ayant pas mis en place de garde-fous comparables, ce qui crée une jurisprudence administrative naissante.

Au Royaume-Uni, l’AI Safety Institute encourage l’adoption sans législation contraignante, mais le Information Commissioner’s Office a publié en mars 2026 une recommandation explicite pour la mise en place de DLP sur les outils IA générative. La pression réglementaire devient comparable à celle du continent.

L’avantage compétitif est clair : Microsoft documente la conformité européenne par défaut, là où Google Workspace avec Gemini et Salesforce Einstein restent en retard sur la couverture native du DLP. OpenAI ChatGPT Enterprise propose Conversation Privacy mais sans intégration aux référentiels CNIL, ce qui complique l’audit RGPD.

Impact concret pour les DSI et RSSI français

Côté budget, l’activation Purview DLP suit le licensing E5 Compliance, soit environ 12 € par utilisateur et par mois en supplément du Copilot E5 (entre 28 et 33 € selon volume). Pour une organisation de 2 000 collaborateurs, le coût mensuel additionnel atteint 24 000 €. Comparé au coût d’une amende CNIL ou d’une notification de violation, l’investissement est défendable.

Côté déploiement, Microsoft annonce une généralisation entre fin avril et fin mai 2026 selon les régions. La région France Centrale est dans la première vague, ainsi que France Sud et Europe West. Les politiques DLP existantes pour Exchange et SharePoint sont réutilisables, ce qui réduit le travail d’implémentation à environ 4 semaines pour une équipe Compliance dédiée.

Le RSSI doit revoir trois éléments. D’abord, le catalogue des classificateurs en cohérence avec la classification interne des données — les organisations qui n’ont pas formalisé leur taxonomie de données vont devoir le faire en urgence. Ensuite, la matrice des actions par criticité, qui décide quelles requêtes bloquer et lesquelles seulement auditer. Enfin, le processus de revue des alertes, qui doit être absorbé par l’équipe SOC ou DPO sans inflation des faux positifs.

Limites et angles morts à connaître

La fonction couvre les prompts entrants, pas systématiquement les sorties générées par Copilot. Une réponse contenant une adresse extraite d’un fichier interne peut encore être copiée par l’utilisateur sans déclencher d’alerte. Microsoft a annoncé une extension aux outputs pour le second semestre 2026, mais les détails et la disponibilité régionale restent flous.

Les classificateurs personnalisés demandent un investissement initial. Sans tuning, les détections par regex génèrent typiquement 15 à 25 % de faux positifs sur les premiers mois, selon les retours d’expérience publiés par Calipia. Un cycle de calibration sur 8 à 12 semaines est nécessaire pour atteindre un taux de bruit acceptable.

Enfin, la fonction reste centrée sur l’écosystème Microsoft. Les organisations multi-cloud déploient Copilot, ChatGPT Enterprise, Gemini for Workspace, et Claude Enterprise. Une stratégie DLP cohérente exige soit un produit tiers de type Netskope ou Zscaler en couche réseau, soit une discipline de configuration distincte par éditeur, ce qui multiplie les coûts d’administration.

Ce qu’il faut faire en mai 2026

Trois actions prioritaires pour les DPO et RSSI. Activer la première vague Purview DLP sur les groupes Copilot pilotes dès la disponibilité régionale, idéalement en mode audit pour mesurer le volume avant blocage. Construire la matrice classificateur-action en intégrant les sensibilités sectorielles propres à votre organisation. Documenter le processus dans le registre des traitements RGPD et la cartographie AI Act qui devient obligatoire le 2 août.

Le sujet n’est pas seulement technique. Il s’agit pour les directions juridiques et conformité de reprendre la main sur des outils déployés depuis 2024 sans véritable contrôle sortant. Avril 2026 marque la fin d’une zone grise qui exposait juridiquement les responsables de traitement.

Sources : Microsoft Learn, Calipia, CNIL.

Avatar photo
À propos de l'auteur

Elena Visconti

Diplômée en droit du numérique (Université Paris-Saclay, 2019), Elena Visconti décrypte le cadre juridique de l'intelligence artificielle pour LagazetteIA. Spécialiste de l'AI Act européen, du RGPD et du DSA, elle suit au quotidien les travaux de la CNIL, de l'ARCEP et des institutions bruxelloises. Avant de rejoindre la rédaction, elle a exercé comme consultante juridique en conformité numérique pendant quatre ans, accompagnant des startups IA dans leur mise en conformité réglementaire. Son obsession : rendre accessible le droit de l'IA sans jargon inutile, en expliquant concrètement ce que chaque texte change pour les entreprises et les professionnels. Domaines d'expertise : AI Act, RGPD, protection des données, éthique de l'IA, gouvernance algorithmique, droit du numérique européen.