Points clés
- Grok (xAI) permet de générer des deepfakes de personnalités publiques avec des garde-fous minimaux
- xAI lève 20 milliards de dollars malgré ces controverses, valorisant l’entreprise à 230 milliards
- DALL-E (OpenAI) et Imagen (Google) imposent des restrictions strictes sur les images de personnes réelles
- Plusieurs poursuites judiciaires sont en cours aux États-Unis et en Europe
Le paradoxe qui devrait nous inquiéter
En janvier 2026, xAI a bouclé une levée de fonds de 20 milliards de dollars. La même semaine, Grok — son modèle d’IA — faisait la une pour avoir généré des deepfakes hyperréalistes de personnalités publiques, sans consentement et avec des garde-fous dérisoires. Les investisseurs n’ont pas bronché. Le marché a valorisé xAI à 230 milliards de dollars. Le message est limpide : les garde-fous éthiques ne sont pas un critère d’investissement.
Le constat : un modèle volontairement permissif
Là où OpenAI refuse de générer des images de personnes réelles identifiables avec DALL-E, où Google impose des filtres stricts sur Imagen, et où Midjourney bloque les noms de personnalités publiques, Grok adopte une approche ouvertement permissive. La philosophie d’Elon Musk — « free speech absolutism » — s’étend à la génération d’images. Résultat : des deepfakes de dirigeants politiques, de célébrités et de citoyens ordinaires circulent sur X, souvent sans la moindre mention qu’il s’agit de contenus générés par IA.
Selon Deadline, les critiques se multiplient. Plusieurs poursuites sont déjà en cours aux États-Unis et en Europe, ciblant tant xAI que la plateforme X pour défaut de modération. L’Union européenne, avec l’AI Act, imposera des obligations de transparence sur les contenus générés par IA dès août 2026. Grok, dans sa configuration actuelle, ne serait pas conforme.
La thèse : le marché récompense l’irresponsabilité
Ce qui est troublant, ce n’est pas que Grok puisse générer des deepfakes — c’est que cette capacité n’a aucun impact négatif sur sa valorisation. Les investisseurs de xAI — NVIDIA, Fidelity, le Qatar Investment Authority — ont manifestement considéré que le risque réputationnel et juridique était acceptable face au potentiel de croissance.
C’est un signal dangereux pour l’industrie. Si le marché ne sanctionne pas l’absence de garde-fous, pourquoi les autres acteurs maintiendraient-ils les leurs ? OpenAI et Google investissent des ressources considérables dans la modération et la sécurité. Chaque dollar dépensé en red teaming, en filtrage de contenu et en watermarking est un dollar qui ne va pas au développement produit. Si xAI peut lever 20 milliards sans ces dépenses, c’est un avantage concurrentiel pervers.
Les arguments de l’autre côté
Les défenseurs de xAI rétorquent que la censure des outils de génération est une pente glissante. Qui décide quelles images sont acceptables ? Les restrictions de DALL-E empêchent aussi des usages légitimes (satire politique, art, recherche). Musk argue que la liberté d’expression inclut la création de contenu, et que la responsabilité incombe à l’utilisateur, pas à l’outil.
Cet argument a un mérite : la censure préventive est effectivement problématique. Mais la comparaison avec la liberté d’expression classique est fallacieuse. Un outil qui permet de créer en quelques secondes un faux discours présidentiel ou un faux témoignage judiciaire n’est pas comparable à un stylo ou un appareil photo. L’échelle et la facilité d’utilisation changent fondamentalement la nature du risque.
L’appel : le marché doit intégrer le coût éthique
Les investisseurs ont une responsabilité que le marché refuse de reconnaître. Valoriser une entreprise à 230 milliards sans exiger de standards minimaux de sécurité, c’est socialiser les risques tout en privatisant les bénéfices. Les victimes de deepfakes paient un prix réel — atteinte à la réputation, harcèlement, manipulation — pendant que les actionnaires empochent la plus-value.
La solution ne viendra pas de la bonne volonté des investisseurs. Elle viendra de la régulation (l’AI Act européen est un début) et de la pression des utilisateurs. En attendant, chaque levée de fonds réussie sans conditions éthiques envoie le même message : dans l’IA, la sécurité est un coût optionnel.
FAQ
Les deepfakes de Grok sont-ils illégaux en France ?
La création et la diffusion de deepfakes peuvent être sanctionnées pénalement en France (atteinte à l’image, diffamation, harcèlement). L’AI Act ajoutera des obligations de transparence et d’étiquetage dès août 2026. En l’état, l’application est difficile quand le générateur est basé aux États-Unis.
Pourquoi OpenAI et Google imposent-ils des restrictions que xAI refuse ?
OpenAI et Google estiment que le risque réputationnel et juridique justifie ces restrictions. xAI, sous l’impulsion de Musk, considère que la modération doit être minimale. C’est un choix stratégique autant qu’idéologique.




