- ▸ Data center à 39,1 Md$ sur le trimestre, +69 % en glissement annuel — la moitié des revenus Nvidia vient désormais de l'IA.
- ▸ Chaque GPU Blackwell se négocie 40 000 $ l'unité, les racks complets dépassent le million de dollars.
- ▸ Microsoft, Amazon, Google et Meta annoncent plus de 200 Md$ de capex IA pour 2026.
- ▸ Wall Street attend 74 à 75 Md$ de chiffre d'affaires pour le trimestre d'avril, à confirmer fin mai.
- ▸ La file d'attente Blackwell dépasse mi-2026 : les rivaux (AMD, Broadcom, Huawei Ascend) se repositionnent.
Nvidia data center a encaissé 39,1 milliards de dollars au premier trimestre de son exercice fiscal 2027 (calendaire Q1 2026), soit une progression de 69 % sur un an et de 10 % par rapport au trimestre précédent. La division pèse désormais plus de la moitié du chiffre d’affaires total du groupe.
Le chiffre confirme ce que les hyperscalers répètent depuis octobre : les GPU manquent, pas la demande. Jensen Huang a répété que Blackwell était vendu jusqu’au milieu 2026 et que chaque trimestre supplémentaire d’allocation est déjà réservé.
Blackwell : 40 000 dollars la puce, un million le rack
Chaque GPU Blackwell se négocie autour de 40 000 dollars l’unité. Les racks complets, intégrant 72 GPU NVL en boîtier refroidi, dépassent régulièrement le million de dollars. Cette tarification tient tant que les concurrents (AMD MI400, Broadcom TPU, Huawei Ascend 920) peinent encore à aligner l’intégration logicielle CUDA.
Les analystes de CNBC rappellent que Broadcom capte déjà une part du gâteau avec Anthropic, qui s’est engagé sur 3,5 gigawatts de puissance via les TPU Google. Mais Broadcom reste une exception, pas la norme.
200 milliards de capex hyperscalers en 2026
Microsoft, Amazon, Google et Meta ont collectivement fléché plus de 200 milliards de dollars de capex IA pour 2026. L’essentiel part chez Nvidia, qui facture à la fois les GPU et les logiciels d’orchestration (NIM, NeMo, DGX Cloud).
Cette concentration explique la trajectoire du groupe sur l’exercice fiscal 2026 clos en janvier : 215,9 Md$ de revenus (+65 %), 130,4 Md$ de résultat opérationnel, 120,1 Md$ de résultat net. Un profil qu’aucun semi-conducteur n’avait jamais affiché.
Qui est concerné par le mur d’approvisionnement
Trois catégories d’acteurs vivent cette tension différemment. Les laboratoires frontières (OpenAI, Anthropic, xAI, Google DeepMind) signent des accords pluriannuels pour sécuriser leur capacité. Les néoclouds (CoreWeave, Lambda, Nebius) achètent à crédit et revendent la puissance à prix fort. Les PME et startups européennes, elles, attendent : les files d’attente chez les revendeurs français dépassent six mois pour un H200.
Mistral fait exception en France. Le laboratoire a levé 830 M$ de dette fin mars pour alimenter son datacenter de Bruyères-le-Châtel avec des GPU Nvidia livrés en priorité, selon TechCrunch. Un traitement VIP que les plus petits n’obtiendront pas.
Prochain rendez-vous : le trimestre d’avril
Le consensus de Wall Street attend 74 à 75 milliards de dollars de revenus sur le trimestre clos fin avril, qui sera publié fin mai. Un chiffre qui validerait le séquentiel continu et mettrait la trajectoire annuelle bien au-delà des 250 Md$.
Les investisseurs surveilleront trois signaux dans la publication. D’abord, la marge brute : si elle recule sous 73 %, l’hypothèse d’une saturation de prix émergera. Ensuite, le mix entre GPU de formation et GPU d’inférence, indicateur du déport vers les workloads agents. Enfin, la part des commandes chinoises : les restrictions export H20 ont réduit le canal, mais pas éteint la demande.
Pour les DSI européens qui finalisent leur budget IA 2027, le signal est clair : Nvidia data center reste le fournisseur central, et il ne baissera pas les prix tant que la file d’attente dépassera mi-2026. Les alternatives AMD et Broadcom se qualifient pour des workloads spécifiques, rarement comme socle principal.
Impact pour les budgets IA 2027
Trois recommandations pratiques pour les directions financières qui arbitrent leurs prochains exercices. D’abord, provisionner une hausse de 15 à 25 % du coût GPU horaire chez les clouds publics au second semestre 2026. Ensuite, sécuriser dès maintenant les engagements réservés pluriannuels AWS ou Azure, qui plafonnent le risque d’inflation. Enfin, tester Blackwell sur un POC ciblé avant d’engager le scaling complet : le rapport performance/watt justifie souvent la prime tarifaire.
Nos analyses sur l’infrastructure : le B300 Blackwell Ultra à 288 Go et le datacenter Mistral de Bruyères.



