- ▸ Quoi : Thinking Machines × Google Cloud, contrat multimilliards GB300
- ▸ Pourquoi : Tinker mise sur le reinforcement learning, gourmand en calcul
- ▸ Chiffre clé : Thinking Machines valorisée 12 Md$ après seed 2 Md$
- ▸ À surveiller : montée en puissance de Google Cloud face à AWS et Azure
Points clés
- Thinking Machines Lab a signé le 22 avril 2026 un contrat à plusieurs milliards avec Google Cloud pour de l’infrastructure GB300 de Nvidia.
- L’accord est valorisé dans la fourchette d’un seul chiffre en milliards de dollars, selon plusieurs sources concordantes.
- Mira Murati a fondé Thinking Machines en février 2025 après son départ d’OpenAI, avec une levée de 2 Md$ à 12 Md$ de valorisation.
- Le premier produit de la société est Tinker, un outil qui automatise la création de modèles IA frontière personnalisés.
- Les systèmes GB300 offrent un gain de vitesse 2x sur l’entraînement et l’inférence par rapport à la génération précédente.
Thinking Machines Lab, fondée en 2025 par Mira Murati, ex-CTO d’OpenAI, a annoncé le 22 avril 2026 un partenariat majeur avec Google Cloud. Le contrat, chiffré dans la fourchette d’un seul chiffre en milliards de dollars, donne accès aux systèmes GB300 de Nvidia pour entraîner les modèles propres de la société. C’est un signal fort : Google Cloud devient un fournisseur d’infrastructure de premier plan pour les laboratoires frontière, jusqu’ici dominés par AWS et Microsoft Azure.
Une infrastructure GB300 pour les charges de reinforcement learning
Selon TechCrunch, l’accord donne à Thinking Machines un accès aux systèmes Google Cloud bâtis autour des nouveaux GPU GB300 de Nvidia. Google a indiqué que ces systèmes peuvent supporter spécifiquement les charges de reinforcement learning, sur lesquelles repose l’architecture Tinker. Le RL est l’approche d’entraînement qui a sous-tendu les avancées récentes des laboratoires comme DeepMind et OpenAI, et son coût computationnel reste élevé.
Les GPU GB300 sont la dernière génération Nvidia, avec un saut de performance présenté à 2x par rapport à la génération précédente sur les phases d’entraînement et de service. Pour un laboratoire qui doit boucler ses cycles d’expérimentation en quelques jours plutôt qu’en quelques semaines, ce facteur change la fréquence des itérations possibles. Thinking Machines fait partie des premiers clients Google Cloud à accéder à ces systèmes en production.
Le détail économique compte : un contrat à plusieurs milliards sur plusieurs années permet à Thinking Machines de stabiliser sa trajectoire de calcul sans dépendre des allocations spot ou des renégociations annuelles. Cette prévisibilité est un atout concurrentiel face à des laboratoires plus jeunes qui doivent réserver leur capacité au coup par coup. C’est aussi un atout face aux laboratoires installés, qui ont parfois bâti leur infrastructure sur des fournisseurs uniques.
Tinker et la création de modèles personnalisés
Le produit phare de Thinking Machines est Tinker, présenté comme un outil qui automatise la création de modèles IA frontière personnalisés. La promesse consiste à permettre à des équipes techniques de constituer leurs propres modèles entraînés sur leurs données, sans devoir bâtir l’ensemble du pipeline d’entraînement à partir de zéro. Cette approche se distingue du fine-tuning classique, qui adapte un modèle existant, et de la pure génération à partir de prompts.
Tinker mise sur le reinforcement learning comme méthode centrale. L’objectif est de permettre à un client d’optimiser un modèle non seulement sur la qualité textuelle, mais sur des objectifs métier précis : taux de conversion sur un service, satisfaction utilisateur mesurée, conformité à un référentiel sectoriel. Cette logique d’optimisation orientée tâche correspond aux usages avancés des laboratoires frontière depuis 2024.
Le marché cible n’est pas le grand public mais les directions techniques d’entreprises et les laboratoires de recherche appliquée. Selon SiliconANGLE, plusieurs banques, assureurs et groupes pharmaceutiques figurent parmi les premiers utilisateurs identifiés de Tinker. La logique économique consiste à vendre un outil d’industrialisation de modèles spécialisés, là où les fournisseurs frontière vendent surtout du modèle générique.
Google Cloud monte au front face à AWS et Azure
Cet accord s’inscrit dans une stratégie plus large de Google Cloud pour reprendre du terrain sur le marché de l’infrastructure IA. Pendant longtemps, AWS a capté l’essentiel des charges d’entraînement, et Microsoft Azure a verrouillé le marché premium grâce à son partenariat avec OpenAI. Google avait l’image d’un fournisseur historique de TPU, mais peinait à attirer les laboratoires frontière concurrents.
L’arrivée de Thinking Machines change cette perception. Si vous avez suivi notre analyse de l’accord Anthropic-Google-Broadcom, vous savez que Google a déjà capté des engagements pluriannuels avec Anthropic pour des centaines de mégawatts de TPU. L’accord avec Thinking Machines complète cette dynamique en démontrant la capacité du cloud Google à servir aussi des charges Nvidia, pas seulement TPU. C’est une polyvalence rare.
Pour Nvidia, l’accord est également stratégique. La distribution des GPU GB300 via les hyperscalers permet de toucher des clients qui n’auraient pas la capacité de bâtir leurs propres data centers. La répartition entre AWS, Azure et Google Cloud sur cette nouvelle génération de puces déterminera en partie la cartographie du marché IA pour les deux à trois années à venir. Google semble bien positionné dans cette répartition.
Lecture pour l’écosystème français et européen
L’accord entre Thinking Machines et Google Cloud illustre une dynamique structurelle : les laboratoires frontière s’organisent autour d’un nombre restreint de fournisseurs d’infrastructure, et leurs choix conditionnent les flux de capital et de talents pour les années à venir. En Europe, les annonces sont plus modestes en valeur absolue, mais elles suivent une logique comparable. Mistral, Poolside et quelques autres acteurs structurent leur capacité d’entraînement via des partenariats hyperscalers ou via des installations dédiées.
Pour les directions techniques européennes, deux enseignements pratiques. D’abord, la course à la capacité GPU et TPU continue, et les pénuries périodiques sur les générations les plus récentes restent probables au moins jusqu’à fin 2026. Réserver des capacités à plusieurs mois reste prudent. Ensuite, les outils comme Tinker préfigurent une nouvelle catégorie : la plateforme d’industrialisation de modèles propriétaires. Cette catégorie pourrait redonner un avantage compétitif aux entreprises capables d’exploiter leurs données métier, à condition d’investir dans les compétences nécessaires.
Le succès de Mira Murati avec Thinking Machines, valorisée 12 milliards de dollars seulement neuf mois après sa création, traduit aussi la prime accordée par les investisseurs aux fondateurs venus directement des laboratoires frontière historiques. Cette prime ne durera pas indéfiniment : la sélection se fera dans les prochains trimestres sur la qualité réelle des produits livrés et la base client constituée. Les laboratoires européens, dont Mistral reste le porte-drapeau le plus visible, devront prouver leur capacité d’exécution face à des concurrents extrêmement bien financés.
Selon eWeek, le contrat ne couvre pas seulement la capacité de calcul brute mais aussi des services accompagnant l’exploitation des GB300 : optimisation des workloads de reinforcement learning, accès à des ingénieurs Google Cloud spécialisés et support sur les outils de monitoring. Cette dimension de service expert différencie Google des autres hyperscalers, qui facturent souvent ces prestations en sus.
L’autre point d’attention concerne la trajectoire à plus long terme de Thinking Machines. La société aurait commencé à recruter agressivement des chercheurs spécialisés en RL et en alignement, secteurs où la concurrence avec OpenAI, Anthropic et DeepMind reste vive. Les grilles salariales rapportées dépassent fréquemment le million de dollars annuels pour les profils les plus rares, ce qui creuse encore l’écart entre laboratoires américains et européens. Cette dynamique alimente le débat récurrent sur la capacité du Vieux Continent à retenir ses talents les plus avancés en IA, débat dont les arbitrages politiques et fiscaux des prochains mois pourraient redessiner les contours.
FAQ
Quelle est la valeur exacte du contrat entre Thinking Machines et Google Cloud ?
Les sources publiques mentionnent un montant « dans la fourchette d’un seul chiffre en milliards de dollars », sans préciser davantage. La structure exacte du contrat, sa durée et les engagements de capacité restent confidentiels. La valorisation de référence pour Thinking Machines est de 12 milliards de dollars, fixée lors de sa levée de seed à 2 milliards début 2025.
Qu’est-ce qui distingue Tinker des outils de fine-tuning classiques ?
Tinker repose sur le reinforcement learning et permet d’optimiser un modèle sur des objectifs métier précis, pas seulement sur la qualité textuelle. L’outil automatise des étapes habituellement manuelles : recherche d’hyperparamètres, génération de données synthétiques, planification des jobs et évaluation des modèles candidats. La cible est l’industrialisation de modèles spécialisés à grande échelle.
Pourquoi Mira Murati a-t-elle quitté OpenAI pour fonder Thinking Machines ?
Mira Murati était CTO d’OpenAI jusqu’à son départ fin 2024. Elle a fondé Thinking Machines en février 2025, suivant une dynamique observée chez plusieurs cadres seniors d’OpenAI. La société se positionne sur l’industrialisation des modèles personnalisés, un segment distinct du grand public ChatGPT.
Cet accord menace-t-il la dépendance d’OpenAI envers Microsoft Azure ?
Pas directement, car OpenAI conserve un contrat structurel avec Microsoft. Mais l’arrivée de Thinking Machines comme client Google Cloud renforce la diversification des laboratoires frontière entre fournisseurs hyperscalers, et augmente la pression sur Microsoft pour préserver l’exclusivité de ses partenariats les plus stratégiques.
À suivre
Les prochaines étapes à observer sont la livraison effective des capacités GB300, les premiers clients référencés de Tinker en production, et la trajectoire de levée de fonds suivante de Thinking Machines, attendue avant fin 2026. Pour aller plus loin, lisez notre dossier sur l’investissement Nvidia dans Poolside et notre analyse des 39 milliards Nvidia data center du Q1 FY27 qui éclaire la dynamique d’infrastructure derrière ces accords.



