Points clés
- Draft Code of Practice publié décembre 2025, version finale juin 2026
- Article 50 AI Act : obligation marquage contenu IA-généré, deepfakes labellisés
- Icône commune « AI » pour identification à la volée du contenu manipulé
- Entrée en force août 2026 ; 180 contributions stakeholders intégrées
- Obligations sur fournisseurs et utilisateurs professionnels
L’Union européenne impose un standard transnational pour identifier et marquer le contenu généré par IA et les deepfakes. Le Code of Practice, fruit d’une consultation multi-stakeholders et aligné sur l’Article 50 de l’AI Act, établit des règles de labellisation obligatoires entrant en application en août 2026. Cette initiative répond à une urgence : sans marquage visible, le contenu IA se confond avec le contenu réel, créant des vecteurs de désinformation massifs.
Chronologie et processus d’élaboration
La Commission européenne a publié un premier draft en décembre 2025. Une deuxième mouture est attendue en mars 2026. Le code final sera adopté en juin 2026, laissant une fenêtre de deux mois pour la conformité avant les obligations plein régime d’août 2026. Plus de 180 contributions de l’industrie, de la société civile et du monde académique ont façonné le document.
Les deux axes du Code : marquage et labellisation
Le Code distingue deux obligations. Primo, le marquage technique : les fournisseurs de systèmes IA générative doivent encoder une métadonnée lisible machine (watermark IA) directement dans le contenu généré. Secundo, la labellisation humaine : les utilisateurs professionnels publiant contenu IA ou deepfakes doivent apposer un label visible, lisible par le public non-technique.
L’icône « AI » commune européenne
Au cœur du système : une icône commune à tous les États membres. Le symbole porte un acronyme bilingue « AI » (adapté pour chaque langue nationale si nécessaire, ex. « IA » en français). Cette icône, placée directement sur l’image ou en overlay, permet au citoyen moyen d’identifier en une seconde que le contenu a subi une manipulation IA. Minimaliste, elle maximise l’adoption transfrontalière.
Qui est assujetti ? Fournisseurs vs utilisateurs
L’obligation pèse sur deux catégories. Les fournisseurs de modèles IA générative doivent mettre en œuvre le marquage technique à la source (dans leurs API, leurs produits). Les utilisateurs professionnels—médias, entreprises publiant contenu IA à titre commercial, organismes politiques créant du contenu synthétique—doivent ajouter un label visible quand le contenu est publié. Les citoyens privés créant du contenu IA pour usage personnel restent hors champ.
Scope : deepfakes, texte IA, images, vidéos
Le Code couvre le contenu visuel (photos deepfakes, vidéos synthétiques), textuel (articles générés, résumés IA) et hybride. Les deepfakes reçoivent une attention spéciale : tout contenu dépeignant une personne réelle dans une situation qu’elle n’a jamais vécue (parole synthétique, apparence falsifiée, contexte manipulé) doit être explicitement marqué.
Les tensions non résolues
Le Code esquive plusieurs questions. D’abord : comment déterminer si un contenu est IA-généré quand un humain l’a édité post-hoc ? Jusqu’à quel point une légère retouche IA nécessite un marquage ? Ensuite : comment appliquer ces règles mondialement quand le Code n’a force que dans l’UE ? Enfin : comment éviter que les markings deviennent un template facilement contournable (faux labels, désactivation) ?
Impact attendu sur la désinformation
L’efficacité reste théorique. Les études montrant que les labels réduisent la confiance en contenu faux existent, mais l’impact à grande échelle reste incertain. Trois scénarios : optimiste (adoption massive réduisant crédibilité du faux), pessimiste (contournement technologique, mutation vers canaux non régulés), réaliste (réduction progressive du contenu IA-généré flagrant, mais persistance du contenu sophistiqué difficile à détecter).
FAQ
Que se passe-t-il si un contenu est marqué IA mais publié sans label visible ?
Sanction administrative : jusqu’à 20 millions EUR ou 4 % du chiffre d’affaires global pour les fournisseurs. Amendes proportionnées pour les utilisateurs. Mais les mécanismes d’enforcement restent à préciser par chaque régulateur national.
L’icône « AI » suffira-t-elle pour que le citoyen comprenne les risques ?
Non. L’icône est un signal, pas une éducation. Sans littératie numérique croissante, le marquage devient du « bruit ». Campagnes de sensibilisation complémentaires seront nécessaires.
Et les contenus générés avant août 2026 ?
Situation floue. Strictement, l’obligation s’applique au contenu nouveau. Mais les archives contiennent du faux non-marqué. Régulateurs et plateformes devront trancher.
