Mes lectures 0

Mes lectures

IA Générale

Bun, Rust, TypeScript : anatomie d’un virage IA

Quand un agent IA produit l'essentiel du code de production, les critères qui fondaient la domination de Python — lisibilité, itération rapide, coût d'appr

Salle de serveurs silencieuse avec trois ordinateurs portables fermés sur un établi métallique.
📋 En bref
Quand un agent IA produit l'essentiel du code de production, les critères qui fondaient la domination de Python — lisibilité, itération rapide, coût d'appr
  • Vingt mille dollars pour 2 000 sessions : la nouvelle unité de mesure
  • Une thèse : le langage cible se déplace vers les contraintes de la machine
  • D'où vient la domination Python : trois décennies de compromis humain
  • Le cœur technique : Bun, JetBrains, Prisma et la nouvelle pile

Quand un agent IA produit l’essentiel du code de production, les critères qui fondaient la domination de Python — lisibilité, itération rapide, coût d’apprentissage — perdent une partie de leur poids économique. Python est-il pour autant en train d’être remplacé ? Trois signaux convergents en 2026 — l’acquisition de Bun par Anthropic, la progression de Rust dans les extensions Python, le remplacement du moteur Rust de Prisma — méthode et chiffres à l’appui.

🤖 Transparence IA — Cet article a été rédigé avec l'assistance d'outils d'IA générative à partir de sources primaires identifiées, puis relu et validé par Mohamed Meguedmi, fondateur de LagazetteIA (Falcon Consulting, SIRET 89457896200025).

Points clés 1. Anthropic a acquis Bun, runtime JavaScript revendiquant 7 millions de téléchargements mensuels et 89 000 étoiles GitHub, qualifié d’« infrastructure essentielle pour le génie logiciel piloté par IA ». 2. L’usage de Rust pour les extensions binaires Python passe de 27 % à 33 % en un an selon l’enquête JetBrains 2025. 3. Prisma a remplacé son moteur de requêtes Rust par un cœur TypeScript/WASM : taille de bundle réduite de 85 %, requêtes jusqu’à 3,4× plus rapides. 4. PyTorch conserve environ 85 % de la recherche en deep learning : la traction académique ne suit pas la même courbe que la production logicielle. 5. Stack Overflow 2025 désigne Rust langage le plus admiré pour la dixième année consécutive à 72 %, devant Gleam (70 %), Elixir (66 %) et Zig (64 %).

Vingt mille dollars pour 2 000 sessions : la nouvelle unité de mesure

L’anecdote tient en quelques lignes dans une analyse publiée le 28 avril 2026 sur Medium par l’auteur NMitchem, intitulée If AI Writes Your Code, Why Use Python? : un peu moins de 20 000 dollars dépensés au total, près de 2 000 sessions Claude Code cumulées pour produire une base de code complète. La somme paraît modeste à l’échelle d’un budget d’ingénierie senior. Elle est considérable rapportée au volume produit. « Le même travail m’aurait pris plusieurs mois à la main », confie le commanditaire dans la même analyse. Cette unité — la session-modèle, facturée à la requête — devient une métrique d’arbitrage. Quand une heure d’ingénieur senior coûte davantage qu’une journée de génération de code par un agent, le calcul change. Et le choix du langage cible avec lui : ce n’est plus l’humain qui paie le coût de la verbosité, c’est la machine. Cette inversion mérite d’être posée comme thèse plutôt que comme anecdote.

Une thèse : le langage cible se déplace vers les contraintes de la machine

L’argument central de l’analyse n’est pas que Python décline en absolu. C’est que les critères de sélection se redistribuent. Tant que la principale contrainte était la cognition humaine — lisibilité, vélocité de prototypage, faible coût d’apprentissage —, Python tenait la corde. Dès lors qu’un agent IA assume la rédaction et que l’humain « architecture le système et passe en revue la production », selon une formule rapportée par NMitchem, les contraintes utiles deviennent : robustesse à la compilation, typage explicite, performance d’exécution. Trois propriétés que Rust, TypeScript strict ou Go portent mieux que Python.

D’où vient la domination Python : trois décennies de compromis humain

Pour mesurer l’ampleur du déplacement, il faut revenir aux raisons qui ont fondé la prééminence de Python. Le langage est devenu le standard du logiciel grand public et de la donnée pour une raison simple : il optimise le temps humain. Conçu à la fin des années 1980, il fait le pari d’une syntaxe quasi-anglaise, d’un typage dynamique, d’une bibliothèque standard touffue. La promesse implicite : un développeur passe l’essentiel de son temps à lire du code et seulement une fraction à en écrire — autant écrire un langage lisible. Pendant trois décennies, ce compromis a tenu. Il a propulsé Django, scikit-learn, pandas, puis l’écosystème scientifique tout entier.

Le revers existait, documenté : Python est lent. Très lent, comparé à du C, du Rust ou du Go. L’industrie a contourné l’obstacle par la stratégie dite du « two-language problem » : on prototype en Python, on optimise ensuite les boucles chaudes en C ou en C++ via des extensions natives. NumPy, TensorFlow, PyTorch reposent tous sur ce modèle. La devise tient en cinq mots, reprise dans l’analyse de NMitchem : « make it performant later. » On écrit d’abord, on optimise après, et seulement si la mesure le justifie.

Ce contrat fonctionnait parce que le facteur limitant restait l’humain. Écrire du Rust prend du temps : le compilateur exige des types précis, un emprunteur vérifié, des durées de vie explicites. Écrire du C bien expose à des vulnérabilités mémoire dont l’industrie paie encore le prix. Python évacuait ces coûts au prix d’une exécution lente — acceptable tant que la performance n’était pas critique, ou tant qu’on pouvait déléguer la performance à une couche basse.

Or l’enquête JetBrains 2025, à laquelle LagazetteIA a consacré une lecture détaillée, montre que cette couche basse change de langage. La part de Rust dans les extensions binaires Python passe de 27 % à 33 % en douze mois. C’est six points en un an, dans un domaine — l’optimisation systèmes — historiquement dominé par C et C++. La conversion ne s’explique pas par la mode : Rust apporte la sûreté mémoire que C ne garantit pas, et désormais un outillage (cargo, pyo3, maturin) qui rend l’aller-retour Python-Rust presque indolore. Cette migration prépare le terrain à un basculement plus profond : si la couche basse est en Rust, et si l’IA peut écrire ce Rust sans coût marginal humain, la couche haute en Python perd son utilité originelle.

Le cœur technique : Bun, JetBrains, Prisma et la nouvelle pile

Les signaux compilés en 2025-2026 confirment cette inflexion. L’année enchaîne trois mouvements qui, isolés, passeraient pour du bruit, mais qui combinés dessinent une trajectoire. Le premier : Anthropic acquiert Bun dix semaines avant la publication de l’analyse de NMitchem. Bun, runtime JavaScript et TypeScript, revendique 7 millions de téléchargements mensuels et 89 000 étoiles GitHub. Anthropic l’encadre comme une « infrastructure essentielle pour le génie logiciel piloté par IA ». La formule n’est pas anodine : un éditeur de modèles fondamentaux achète une brique d’exécution. L’intégration verticale s’opère côté outillage de génération, pas seulement côté modèle, et fait écho à la stratégie d’Anthropic sur les agents de code.

Le deuxième signal vient de Prisma, éditeur d’ORM pour JavaScript. L’entreprise a démantelé son moteur de requêtes écrit en Rust pour le remplacer par un cœur TypeScript transpilé en WebAssembly. Le bilan technique, rapporté par NMitchem : taille de bundle réduite de 85 %, vitesse d’exécution multipliée par 3,4. Le résultat surprend : un cœur écrit en langage haut niveau, compilé en WASM, surpasse l’implémentation Rust dédiée qu’il remplace. Un développeur cité dans l’analyse résume : « We’ve reached peak optimization with JS. » L’optimisation du runtime JavaScript par les acteurs majeurs (V8, JavaScriptCore, et désormais Bun) a atteint un niveau tel que la valeur ajoutée d’un binding Rust dédié devient marginale, voire négative compte tenu du coût de maintenance.

Le troisième signal est culturel. Le Stack Overflow Developer Survey 2025 désigne Rust langage le plus admiré pour la dixième année consécutive, à 72 % de réponses favorables. Suivent Gleam (70 %), Elixir (66 %), Zig (64 %). Les langages plébiscités partagent trois traits : typage statique fort, gestion explicite de la concurrence, compilation rapide. Trois critères qui, du point de vue d’un agent IA, réduisent les modes d’échec — un programme qui compile a déjà éliminé une classe d’erreurs qu’un script Python ne détecterait qu’à l’exécution.

Le tableau ci-dessous résume les positions documentées :

Signal 2025-2026ActeurMouvementDonnée chiffrée
Acquisition d’un runtimeAnthropic → BunIntégration verticale du tooling IA7 M téléchargements/mois, 89 K stars GitHub
Remplacement de moteurPrisma : Rust → TS/WASMDécroissance du natif au profit du compiléBundle -85 %, requêtes ×3,4
Extensions binaires PythonCommunauté PythonBascule C/C++ → Rust27 % → 33 % en un an (JetBrains 2025)
Préférences déclaréesStack Overflow 2025Rust en tête depuis 10 ansRust 72 %, Gleam 70 %, Elixir 66 %, Zig 64 %
Benchmark SWE-benchDeepSeek V4 et autresGénération de code systèmesPlus de 80 % vérifiés en quelques semaines

Le franchissement par DeepSeek V4 — et par d’autres modèles publiés dans la même fenêtre — de la barre des 80 % sur SWE-bench Verified, benchmark de résolution de bugs réels sur dépôts GitHub, change la lecture. Tant que les modèles plafonnaient sur du code Rust ou Go (hallucinations de noms de crates, méconnaissance des conventions), Python restait le terrain de jeu naturel. Cette barrière saute. NMitchem rapporte la formule employée par un commentateur du domaine : « LLMs change the whole constraints landscape of software completely. Hints of this can already be seen, e.g. in the rising momentum behind porting C to Rust. » La causalité s’inverse : ce n’est plus le langage qui dicte ce que les modèles peuvent produire, ce sont les modèles qui choisissent où porter leur effort de génération.

Impact terrain : la productivité ne mesure plus la même chose

Les chiffres se traduisent sur le terrain des équipes. Le glissement s’observe d’abord par une accélération mesurable. « Our team ships features in days because the ecosystem already solved 90% of every problem », rapporte un développeur cité dans l’analyse. La phrase, en apparence banale, dit deux choses. Premièrement, l’écosystème JavaScript/TypeScript a atteint une densité telle que la quasi-totalité des problèmes courants — authentification, gestion d’état, persistance, file d’attente, intégration API — dispose d’une bibliothèque éprouvée. Deuxièmement, l’agent IA exploite cette densité mieux que ne le ferait un humain : il parcourt npm en quelques requêtes, identifie le paquet adéquat, l’intègre sans plomber le temps de revue.

Le changement de rôle de l’ingénieur s’opère en parallèle. La formule revient deux fois dans l’analyse de NMitchem : l’humain est désormais occupé à « architecting the system and reviewing the output ». Concrètement, cela signifie écrire la spécification, définir les contrats d’interface, vérifier la cohérence du système produit, valider les arbitrages de sécurité. Le code de routine — boucles, formatage, sérialisation, plumbing — sort du périmètre humain. Or écrire ces lignes était précisément ce que Python facilitait. La proposition de valeur du langage s’érode à l’endroit où elle était la plus forte.

Le coût économique suit. Dans le cas documenté, un peu moins de 20 000 dollars couvrent près de 2 000 sessions Claude Code. À titre de comparaison interne, cette somme représente quelques journées d’un ingénieur senior à temps plein dans une métropole européenne. Le commanditaire estime que la production équivaut à « plusieurs mois » d’écriture manuelle. Le ratio coût/production se déplace d’un ordre de grandeur. Ce déplacement ne tient pas tant à la vitesse de génération qu’à la qualité du code produit : si la première version compile, passe les tests, et respecte le typage, le coût marginal de la revue devient acceptable.

Sur les équipes en place, l’effet est inégal. Les directions techniques qui avaient standardisé Python sur l’ensemble de leur chaîne — data engineering, services web, scripts internes — réévaluent. Celles qui maintenaient déjà une pluralité de langages (Go côté infrastructure, TypeScript côté front, Python côté ML) consolident plutôt vers TypeScript et Rust pour les nouveaux services. Aucune migration de masse n’est documentée à ce stade, mais les arbitrages sur les projets greenfield basculent. Et le greenfield, dans l’industrie, finit par dominer cinq ans plus tard.

Perspectives contradictoires : PyTorch, l’inertie et le plafond Rust

Plusieurs nuances tempèrent toutefois cette lecture. L’inertie joue d’abord contre le scénario du basculement immédiat. PyTorch concentre encore environ 85 % de la recherche académique en deep learning. Cette proportion ne dépend pas du langage qui entoure les modèles : les poids du modèle, eux, sont indépendants du wrapper. Le langage de l’API ne change rien à la précision d’un transformeur ni à la stabilité d’une boucle d’entraînement. Tant que la recherche se publie en Python, l’industrie qui consomme ces publications restera majoritairement Python — au moins sur la couche modélisation, comme le rappelle régulièrement l’écosystème français de la recherche IA.

Deuxième nuance : Rust lui-même ne serait pas le terminus de la trajectoire. La même analyse cite un observateur du domaine : « even Rust is nowhere near optimal for LLMs as a target language. » L’argument repose sur la verbosité du système d’emprunt et sur la complexité des durées de vie, qui consomment des tokens et compliquent la génération pour un modèle. Un langage taillé pour les agents IA ressemblerait davantage à un dialecte fortement typé, à compilation incrémentale très rapide, avec une syntaxe minimaliste — un Gleam, un Roc, ou un langage encore à inventer. Le mouvement Rust serait donc une étape, pas un point d’arrivée.

Troisième angle critique : la dépense de 20 000 dollars pour 2 000 sessions reste un cas particulier, non un benchmark industriel. Les contextes où l’IA tient ses promesses (greenfield, code applicatif, intégrations standard) ne couvrent pas l’ensemble du métier. Les bases de code anciennes — millions de lignes, conventions internes, dette technique sédimentée — résistent davantage. L’écart de productivité observé dans l’analyse ne se transposera pas tel quel à tous les contextes. La généralisation du basculement de langage reste, à ce stade, une hypothèse étayée par des signaux convergents, pas une donnée industrielle consolidée.

Prospective : un langage taillé pour les modèles ?

Restent les angles d’attaque pour la suite. La question ouverte n’est plus de savoir si Python sera dépassé sur l’ensemble du logiciel — il ne le sera probablement pas avant longtemps, l’inertie de PyTorch et de l’enseignement universitaire en témoigne. Elle est de savoir où se forme le prochain niveau de différenciation. Trois hypothèses se dégagent des signaux compilés.

D’abord, la verticalisation de l’outillage IA. L’acquisition de Bun par Anthropic suggère que les laboratoires de modèles voudront contrôler la chaîne d’exécution du code généré, depuis le runtime jusqu’à l’environnement de tests. Ensuite, la convergence des langages cibles vers un sous-ensemble à compilation rapide et typage strict, dans lequel Rust et TypeScript occupent aujourd’hui les positions de tête sans en clore la liste. Enfin, l’émergence possible d’un langage spécifiquement conçu pour la génération par modèles — minimaliste, prévisible, optimisé sur la densité de tokens. Aucun candidat ne s’est encore imposé, mais la trajectoire est lisible.

La vraie question pour les directions techniques françaises : à quel horizon réviser ses choix de stack pour les nouveaux projets ? Six mois sont sans doute trop courts. Trois ans, vraisemblablement trop longs.

FAQ

Pourquoi Anthropic rachète-t-il Bun plutôt que de financer un runtime interne ?

L’acquisition annoncée dix semaines avant la publication de l’analyse de NMitchem porte sur un projet open source déjà mature : 7 millions de téléchargements mensuels, 89 000 étoiles GitHub. Construire un équivalent en interne coûterait davantage en temps et en adhésion communautaire que d’acquérir l’existant et de l’orienter explicitement vers les besoins du code généré par IA, présenté par Anthropic comme « infrastructure essentielle ».

Faut-il abandonner Python pour les nouveaux projets ?

Non, pas en l’état. PyTorch et l’écosystème scientifique restent ancrés à hauteur d’environ 85 % de la recherche en deep learning. Pour les services applicatifs, les microservices ou les outils internes, TypeScript et Rust deviennent en revanche des candidats sérieux. L’arbitrage dépend du contexte d’équipe et du périmètre fonctionnel, pas d’un dogme.

Pourquoi Prisma renonce-t-il à Rust ?

Parce que l’optimisation extrême du runtime JavaScript, qualifiée de « peak optimization » par un développeur cité par NMitchem, rend la couche Rust marginale en gain. Le passage à TypeScript/WASM réduit le bundle de 85 % et accélère les requêtes jusqu’à 3,4×. Le bénéfice net penche désormais côté plateforme unifiée et coût de maintenance réduit.

Que mesure le score SWE-bench Verified évoqué pour DeepSeek V4 ?

SWE-bench Verified évalue la capacité d’un modèle à résoudre des bugs réels issus de dépôts GitHub : reproduction, correction, validation par les tests existants. Le franchissement de la barre des 80 % par plusieurs modèles, dont DeepSeek V4, en quelques semaines, marque le passage d’un seuil au-delà duquel la génération de code en langages stricts devient industriellement crédible.

Sources – NMitchem, If AI Writes Your Code, Why Use Python?, Medium, 28 avril 2026. – JetBrains, Python Developer Survey 2025, données citées par NMitchem. – Stack Overflow, Developer Survey 2025, données citées par NMitchem. – Anthropic, communication d’acquisition de Bun citée par NMitchem (février 2026). – Prisma, notes techniques du remplacement du moteur Rust par TypeScript/WASM, citées par NMitchem.

Avatar photo
À propos de l'auteur

Mohamed Meguedmi

Je suis Mohamed Meguedmi, fondateur et directeur éditorial de LagazetteIA. Multi-entrepreneur passionné de tech depuis toujours, j'ai intégré l'IA dans chacune de mes entreprises dès ses débuts. Chaque semaine, je teste des dizaines d'outils IA, compare les modèles et décortique les dernières avancées pour vous donner un avis concret, sans bullshit. Mon objectif avec LagazetteIA : vous faire gagner du temps et vous aider à prendre les bonnes décisions dans cette révolution technologique. La rédaction s'appuie sur des outils d'analyse modernes (incluant l'IA générative) et chaque publication est vérifiée et validée par mes soins avant mise en ligne. Profil LinkedIn : https://www.linkedin.com/in/mohamed-meguedmi/