C’est un vote qui fera date dans l’histoire du web participatif. Le 20 mars 2026, les contributeurs bénévoles de l’encyclopédie anglophone Wikipédia ont adopté une nouvelle politique interdisant l’utilisation de grands modèles de langage (LLM) pour générer ou réécrire des articles. Le résultat est sans appel : 44 voix pour, 2 contre.
Pourquoi cette décision
L’argumentaire des partisans de l’interdiction repose sur un risque bien identifié : le cercle vicieux de la contamination des données. Un texte inexact ou « halluciné » par un LLM entre dans l’encyclopédie, puis se retrouve aspiré par les entreprises d’IA lors de la collecte de données d’entraînement. Ce contenu erroné alimente alors les futurs modèles, qui le reproduisent à leur tour. La boucle est bouclée.
Ce phénomène, parfois qualifié de « model collapse » dans la littérature scientifique, est considéré comme l’une des menaces les plus sérieuses pour la qualité de l’information en ligne. En prenant cette décision, Wikipédia envoie un signal fort : la fiabilité de l’information prime sur la productivité.
Deux exceptions encadrées
La politique n’est pas un rejet total de l’IA. Deux usages restent autorisés sous conditions strictes. Les contributeurs peuvent utiliser un LLM pour suggérer des corrections orthographiques sur leurs propres textes, ou pour produire une première ébauche de traduction à partir d’articles existants dans d’autres langues. Dans les deux cas, le rédacteur humain reste responsable de la vérification complète du résultat.
La politique précise que les LLM peuvent « modifier le sens d’un texte au-delà de ce que l’éditeur avait prévu, d’une manière non étayée par les sources citées ». Une formulation qui en dit long sur le niveau de méfiance de la communauté.
Un défi d’application
Reste la question de l’application. Wikipédia reconnaît elle-même que les outils de détection d’IA sont actuellement peu fiables. Les caractéristiques stylistiques ou linguistiques seules ne suffisent pas à justifier des sanctions. L’application reposera donc essentiellement sur les modérateurs humains et la vigilance communautaire.
La décision ne concerne pour l’instant que la Wikipédia anglophone, chaque édition linguistique étant autonome dans sa gouvernance. Mais compte tenu du poids symbolique de cette version — plus de 6,8 millions d’articles —, il est probable que d’autres éditions suivent.



