- ▸ L'argument officiel ne tient pas la route
- ▸ La pédagogie par l'exemple a ses limites
- ▸ Le timing pose un problème particulier
- ▸ Ce que ça révèle sur la communication politique
Le chancelier allemand Friedrich Merz a publié début avril 2026 une vidéo le montrant danser en costume dans ce qui ressemble à un club berlinois. La séquence, virale en quelques heures, est entièrement fabriquée par IA. Et elle est assumée comme telle. Merz parle « d’alerter sur les dangers du deepfake ». Le problème, c’est que la pédagogie choisie risque de produire exactement l’inverse.
L’argument officiel ne tient pas la route
L’équipe du chancelier défend une démarche pédagogique : en se mettant lui-même en scène, Merz démontrerait la facilité avec laquelle on peut fabriquer une vidéo convaincante d’un responsable politique. L’intention est louable. Sa mise en œuvre interroge.
Quand un chef de gouvernement publie une fausse vidéo de lui-même, il ne pédagogise pas : il normalise. Il dit à ses concitoyens qu’il est désormais acceptable, pour un dirigeant, d’apparaître dans des contextes qu’il n’a jamais réellement vécus. Les électeurs allemands, qui se remettent à peine de deux cycles électoraux pollués par les manipulations numériques, méritaient probablement mieux qu’une blague politique.
La pédagogie par l’exemple a ses limites
Il existe des manières responsables d’alerter sur les deepfakes. L’Autorité française de régulation de la communication, l’Ofcom britannique ou même la Commission européenne publient régulièrement des analyses techniques accompagnées de vidéos de démonstration clairement identifiées, produites en laboratoire et intégrées à des campagnes d’éducation aux médias.
Merz a choisi une autre voie : celle du clip viral, calibré pour le partage sur les réseaux sociaux. La mention « vidéo générée par IA » qui accompagne le post sera invisible pour 80 % des internautes qui ne regardent une vidéo que quelques secondes, sans cliquer, sans lire la légende.
Le timing pose un problème particulier
L’initiative tombe dans une fenêtre réglementaire délicate. Les trois institutions européennes viennent d’annoncer l’interdiction des visuels IA dans leurs communications officielles. Le Parlement européen, la Commission et le Conseil ont tranché : pour préserver la confiance publique, les services de presse ne produiront plus aucune image entièrement synthétique.
Au même moment, le chancelier allemand — chef d’un État membre fondateur — fait exactement l’inverse. Il ne s’agit pas d’un oubli protocolaire. C’est une contradiction politique qui fragilise la cohérence du message européen sur la gouvernance de l’IA générative.
Ce que ça révèle sur la communication politique
L’épisode Merz est surtout symptomatique. Il raconte qu’une fraction du personnel politique européen a intégré les codes de la viralité — vitesse, humour, autodérision — sans en mesurer le coût démocratique. Le deepfake d’un chancelier devient un contenu parmi d’autres, un outil marketing au service d’une ligne éditoriale.
Le problème, ce n’est pas l’humour ni l’autodérision. Les dirigeants politiques ont le droit — voire le devoir — de parler à leurs concitoyens avec légèreté. Le problème, c’est d’utiliser la technologie qui menace le plus directement la confiance dans la parole politique comme un ressort comique.
Une question que personne ne pose
Si Merz peut publier une fausse vidéo de lui-même aujourd’hui, qu’est-ce qui empêchera un autre dirigeant, demain, de désavouer une vidéo authentique en la qualifiant de deepfake ? Le journaliste Jack Posobiec appelait déjà ce risque le « liar’s dividend » en 2023 : plus les deepfakes sont banalisés, plus il devient facile de nier n’importe quelle image, même authentique.
Cette érosion de la preuve visuelle est déjà à l’œuvre dans les démocraties. Chaque fois qu’un responsable politique — même bien intentionné — contribue à brouiller la frontière entre vrai et faux, il offre un argument gratuit à ceux qui voudront un jour nier l’indéniable.
Et maintenant ?
Il n’y aura pas de sanction pour Merz. Il n’y aura probablement pas non plus de leçon collective. La séquence sera oubliée dans trois semaines. Restera un précédent : un chef de gouvernement européen a publié une vidéo falsifiée de lui-même sans conséquence. C’est acté.
Les prochains mois diront si d’autres dirigeants suivent l’exemple. Espérons que non. Espérons surtout que les régulateurs européens, qui ont déjà fait preuve de courage sur l’AI Act, sauront rappeler que la lutte contre les deepfakes commence par l’exemplarité de ceux qui la prêchent.
Sources : Usine Digitale, 5 avril 2026 ; Epitech Analyse, 6 avril 2026 ; communiqués du Bundeskanzleramt.






