Points clés

• Le Parlement européen repousse les échéances de l’AI Act de plusieurs mois
• Les systèmes d’IA à haut risque auront jusqu’au 2 décembre 2027 pour se conformer
• L’UE interdit pour la première fois les applications « nudifiers » générant des images sexuelles non consentis
• Les négociations trilatérales débuteront au Q2 2026, avec une adoption formelle avant l’été

Le 26 mars 2026, le Parlement européen a voté en faveur du paquet Digital Omnibus, modifiant substantiellement les calendriers de mise en œuvre de l’AI Act. Cette décision repousse de plusieurs mois les obligations de conformité pour les systèmes d’IA à haut risque, tout en mettant en place une interdiction sans précédent en Europe : les applications générant des images sexuelles non consentis, les fameuses applications « nudifiers ».

Ce que le Parlement a voté le 26 mars

Le vote s’est déroulé sous la forme d’un paquet législatif coordonné par les commissions IMCO (Commerce intérieur) et LIBE (Libertés civiles). Les résultats sont éloquents : 101 votes en faveur, 9 contre, et 8 abstentions, le 18 mars lors des scrutins en commission. Cette majorité confortable reflète un consensus sur le besoin d’ajustements pratiques au texte initial de l’AI Act.

Le paquet Digital Omnibus modifie non seulement l’AI Act, mais aussi d’autres directives connexes (LSRC, OLIA, et autres instruments régulateurs du numérique). Vous comprendrez aisément que cette approche systémique cherche à harmoniser les délais de mise en conformité pour les entreprises opérant dans l’écosystème numérique européen.

Les nouvelles échéances de l’AI Act

Voici les principaux changements de calendrier :

Systèmes d’IA à haut risque : leur délai de conformité passe du 31 août 2025 au 2 décembre 2027. Vous avez bien lu : cela représente plus de deux années supplémentaires pour adapter vos architectures, processus d’audit et documentation de conformité. Cette extension s’avère cruciale pour les secteurs touchant à l’emploi, la santé, et la sécurité publique.

Marquage et filigrane des contenus d’IA : au lieu de février 2027 (comme l’avait proposé la Commission), vous disposez d’un délai plus court : 2 novembre 2026. Cela signifie que les organisations générant du contenu par IA doivent rapidement mettre en place des mécanismes de marquage transparent et de filigrane technique pour identifier le contenu synthétique.

Autres systèmes : les dispositions relatives aux obligations de transparence et aux systèmes de faible risque restent globalement inchangées, avec des délais s’échelonnant de septembre 2026 à septembre 2027.

L’interdiction des « nudifiers », une première européenne

Le point le plus remarquable de ce vote concerne l’interdiction explicite des applications « nudifiers ». Ces logiciels, qui utilisent l’IA générative pour créer des images sexuelles à partir de photos réelles sans consentement, représentent une violation grave de la dignité et de la vie privée des individus.

Jusqu’à présent, aucun cadre juridique au monde n’avait expressément interdit cette catégorie d’applications. L’Union européenne franchit un cap symbolique majeur en reconnaissant que certains usages de l’IA générative ne peuvent tout simplement pas être tolérés, indépendamment de la question du consentement. Vous devez considérer cette interdiction comme l’expression d’une limite éthique et légale incontournable.

Le contexte international soutient cette position. Le 24 mars 2026, le Bureau de la protection des données du Royaume-Uni (ICO) et l’Ofcom ont écrit à xAI pour demander des informations sur les risques de deepfake liés à Grok, l’IA générative de Musk. Cette concomitance de mesures régulières montre que les autorités convergent vers la nécessité de réguler les usages les plus dommageables de l’IA générative.

Qui est concerné par ces changements ?

Les développeurs d’IA : vous disposez de plus de temps pour auditer vos systèmes à haut risque, mettre à jour vos registres de conformité, et vous assurer que vos architectures respectent les critères de transparence et de traçabilité définis par l’AI Act.

Les entreprises utilisant l’IA : vous devez anticiper les nouvelles obligations de marquage du contenu synthétique. Cela concerne les secteurs de la publicité, du journalisme, du marketing numérique, et de la création de contenu. Planifiez dès à présent l’intégration de filigrane et de métadonnées décrivant le rôle de l’IA dans vos productions.

Les autorités publiques : vous devez préparer vos ressources en inspection et en conformité. Les délais repoussés ne signifient pas une baisse de vigilance ; ils reflètent un effort de réalisme quant aux capacités d’adaptation de l’écosystème.

Les citoyens : cette législation vous protège en renforçant la transparence sur l’usage de l’IA et en criminelles les usages prédateurs comme les nudifiers.

Les critiques et les zones d’ombre

Bien que ce vote représente une avancée majeure, plusieurs critiques ont été exprimées par les parties prenantes :

Délais encore trop courts pour certains : les PME technologiques estiment que même 2027 reste ambitieux pour une conformité complète. Elles demandent des mécanismes d’aide et de sensibilisation accélérés.

Définition imprécise du « haut risque » : la notion continue de faire débat. Certains systèmes de recommandation ou d’analyse de risque crédit ne sont pas unanimement classés, créant une ambiguïté pour les producteurs.

Absence de clarté sur les filigrane techniques : comment exactement les organisations doivent-elles implémenter le marquage du 2 novembre 2026 ? Les spécifications techniques restent à affiner durant les négociations trilatérales.

Portée internationale limitée : l’interdiction des nudifiers s’applique au sein de l’UE, mais comment ferez-vous face à des applications hébergées en dehors ? Les autorités devront coordonner avec les partenaires internationaux.

FAQ

Qu’est-ce que le paquet Digital Omnibus exactement ?

Il s’agit d’un ensemble de modifications législatives regroupées afin de synchroniser les délais de mise en conformité de plusieurs directives sur le numérique (AI Act, LSRC, OLIA, etc.). Cette approche vise à éviter une fragmentation réglementaire et à faciliter l’adaptation des entreprises aux nouvelles normes.

Y a-t-il une différence entre « marquage » et « filigrane » pour le contenu d’IA ?

Oui, une distinction importante. Le marquage est une déclaration visible ou métadonnée indiquant qu’un contenu a été généré par IA (par exemple, une mention en bas d’un article). Le filigrane est une trace technique, souvent invisible ou difficilement supprimable, intégrée au fichier lui-même pour prouver l’origine IA. L’AI Act exigera probablement les deux, selon le contexte d’usage.

Ma petite startup est-elle concernée par ces nouvelles règles ?

Cela dépend de votre activité. Si vous développez un système d’IA à haut risque (dans l’emploi, la santé, la justice, etc.), oui, vous êtes concernée. Si vous utilisez simplement de l’IA générative pour créer du contenu (articles, images, vidéos), vous devrez vous conformer aux obligations de marquage et de filigrane. Les délais allongés jusqu’à 2027 vous laissent du temps pour vous préparer.

Vous devriez consultez un expert en conformité réglementaire ou rejoindre une association professionnelle pour obtenir des orientations spécifiques à votre secteur.