- ▸ Le chiffre qui devrait vous empêcher de dormir
- ▸ La boucle qui se referme
- ▸ Pourquoi c'est différent de tout ce qu'on a vu
- ▸ Les optimistes et les inquiets
Le chiffre qui devrait vous empêcher de dormir
Boris Cherny, responsable de Claude Code chez Anthropic, l’a dit sans détour : il n’a plus écrit une seule ligne de code depuis plus de deux mois. 100 % de son travail de programmation est désormais réalisé par Claude. Chez OpenAI, le chercheur connu sous le pseudonyme Roon confirme la même chose. Et GPT-5.3-Codex, le dernier modèle de code d’OpenAI, a officiellement « participé à sa propre création ».
Relisez cette dernière phrase. Un logiciel a contribué à se construire lui-même. Ce n’est plus de la science-fiction. Ce n’est même plus une expérimentation de laboratoire. C’est le mode opératoire quotidien des deux entreprises les plus avancées en intelligence artificielle.
La boucle qui se referme
Dario Amodei, le PDG d’Anthropic, a posé le diagnostic avec une franchise inhabituelle : « Claude qui conçoit la prochaine version de Claude lui-même, pas complètement, pas de toutes les manières, mais de beaucoup de manières — cette boucle commence à se fermer très vite. »
À l’échelle de l’industrie, les chiffres confirment la tendance. Chez Anthropic, l’IA génère entre 70 % et 90 % du code selon les projets. Claude Code, l’outil de programmation phare de l’entreprise, est lui-même écrit à 90 % par Claude. Microsoft, pourtant plus conservatrice, annonce 30 % de code généré par IA. Et Amodei estime que l’industrie est à six à douze mois du moment où l’IA gérera la quasi-totalité du travail d’ingénierie logicielle, de bout en bout.
Pourquoi c’est différent de tout ce qu’on a vu
On a l’habitude des outils qui amplifient la productivité humaine. Le compilateur a remplacé l’écriture en langage machine. Les frameworks ont réduit le code répétitif. Les IDE ont automatisé la complétion. À chaque étape, l’outil restait un outil — inerte, passif, incapable de s’améliorer seul.
Ce qui se passe aujourd’hui est qualitativement différent. Pour la première fois, l’outil modifie l’outil. Le code qui produit le code produit un meilleur code qui produit un encore meilleur code. C’est une boucle de rétroaction positive dont la vitesse d’itération n’est limitée que par la puissance de calcul disponible — et cette puissance double à intervalles réguliers.
Les optimistes et les inquiets
Le camp optimiste voit dans cette évolution une libération. Si l’IA prend en charge l’implémentation technique, les développeurs humains pourraient se concentrer sur ce qui compte vraiment : l’architecture, la vision produit, la compréhension des besoins utilisateurs. Le code deviendrait un détail d’exécution, comme la typographie dans un journal — essentiel, mais délégable.
Le camp inquiet pointe un problème plus profond. Si un système contribue à sa propre amélioration, comment garantir qu’il ne dérive pas ? Un bug introduit par l’IA dans son propre code pourrait se propager dans les versions suivantes sans que personne ne le détecte, puisque les humains ne lisent plus le code. On appelle ce risque la « dérive silencieuse » — une accumulation d’erreurs subtiles dans un système que plus personne ne supervise réellement.
Le vrai sujet n’est pas technique
Le débat autour de l’IA qui écrit son propre code est souvent ramené à une question d’efficacité ou d’emploi. C’est passer à côté de l’essentiel. La question fondamentale est celle du contrôle.
Quand un ingénieur humain écrit du code, il y a une chaîne de responsabilité claire : le développeur, le chef de projet, l’entreprise. Quand l’IA écrit le code qui écrit le code, cette chaîne se brouille. Qui audite ? Qui valide ? Qui assume la responsabilité d’un dysfonctionnement dans un système que personne n’a entièrement relu ?
Anthropic et OpenAI affirment maintenir une supervision humaine. Mais les chiffres racontent une autre histoire : si 90 % du code est généré par l’IA, la « supervision » humaine porte sur un dixième du système. C’est comme prétendre contrôler un livre en ne lisant qu’un chapitre sur dix.
Ce qui vient ensuite
La boucle autonome ne va pas ralentir. Elle va accélérer. Chaque amélioration de l’IA rend la prochaine amélioration plus facile à produire. La question n’est plus de savoir si l’IA écrira 100 % de son propre code — c’est déjà quasiment le cas — mais ce qui se passe quand la boucle tourne assez vite pour que l’humain ne puisse plus suivre.
Nous n’en sommes pas encore là. Mais « pas encore là » est une expression qui, en matière d’IA, se mesure désormais en mois plutôt qu’en années.






