Points clés
- GPU Vera Rubin : 50 pétaflops en précision NVFP4, conçu pour l’inférence IA
- Baie NVL72 (72 Rubin) : 3 600 pétaflops, cinq fois la puissance de Blackwell
- Module orbital Space-1 : 25 fois la densité de calcul IA du H100 en orbite
- Adoption prévue dès 2026 par AWS, Google Cloud, Microsoft et OCI
- Carnet de commandes clients : environ 1 000 milliards de dollars sur 2026-2027
NVIDIA réinvente l’infrastructure IA avec deux annonces majeures lors de la GTC 2026 : le GPU Vera Rubin, qui multiplie par cinq la puissance d’inférence par rapport à Blackwell, et le module orbital Space-1, qui pose les bases du calcul IA en orbite. Cette double offensive redessine le paysage matériel de l’intelligence artificielle pour les années à venir.
Vera Rubin : une architecture dédiée à l’inférence IA
Vera Rubin est optimisé pour l’inférence, pas pour l’entraînement. Le GPU atteint 50 pétaflops en précision NVFP4 (format propriétaire NVIDIA à quatre bits, calibré pour les charges IA), contre 10 pétaflops en FP8 pour Blackwell. Le format NVFP4 offre un débit cinq fois supérieur à enveloppe énergétique équivalente. L’efficacité énergétique progresse d’un facteur dix par rapport à Blackwell, un gain décisif sur les coûts opérationnels des centres de données. La baie NVL72, qui regroupe 72 GPU Rubin, atteint 3 600 pétaflops dans un encombrement équivalent à une configuration double baie Blackwell.
Les fournisseurs cloud se mobilisent dès 2026
AWS, Google Cloud, Microsoft Azure et Oracle Cloud ont annoncé des plans de déploiement de baies NVL72 dès le deuxième ou troisième trimestre 2026. Microsoft provisionne massivement sous le nom de code « Fairwater AI Superfactory ». La pénurie de GPU IA persiste depuis 2023 et Vera Rubin apporte une soupape de décompression. Toutefois, la demande croît au même rythme : toutes les startups veulent accéder à ces ressources rares. NVIDIA applique une politique d’allocation qui privilégie les hyperscaleurs, les gouvernements et les partenaires sélectionnés.
Space-1 : le module Vera Rubin orbital, un enjeu géopolitique
Le module Space-1 embarque deux GPU Vera Rubin (100 pétaflops utilisables en orbite) et un processeur Vera dédié à l’interconnexion et à la mémoire. Sa densité de calcul IA est 25 fois supérieure à celle des précédents satellites équipés de H100. L’implication est considérable : l’inférence IA pourra être distribuée en mode hybride espace-sol. La latence entre la Terre et l’orbite se résout par le calcul directement en périphérie spatiale. Sur le plan géopolitique, la course à l’IA spatiale entre les États-Unis et la Chine s’intensifie. NVIDIA se positionne en fournisseur de puces, laissant les clients (gouvernements, entreprises) se livrer concurrence sur l’infrastructure.
Carnet de commandes et effet de rareté
NVIDIA annonce un carnet de commandes d’environ 1 000 milliards de dollars sur 2026-2027 pour ses GPU IA, dont Vera Rubin constitue le moteur principal. Les délais de livraison s’échelonnent de 18 à 24 mois, la fabrication en 3 nm chez Samsung étant saturée. La tarification reflète cette rareté : le prix de Vera Rubin est estimé entre 300 000 et 400 000 dollars par unité, contre 250 000 dollars pour Blackwell. Les marges de NVIDIA progressent parallèlement aux bonds de performance.
FAQ
Le module Space-1 remplacera-t-il les centres de données terrestres ?
Non. Space-1 se spécialise dans l’inférence à ultra-faible latence pour les liaisons satellitaires, les systèmes autonomes et les applications militaires. Les centres de données terrestres (baies NVL72) resteront dominants pour le cloud IA généraliste, grâce à leur ouverture, leur amortissement des coûts et la proximité des talents. L’architecture hybride s’impose : entraînement au sol, inférence répartie entre périphérie, espace et cloud. Les centres de données orbitaux pourraient devenir courants après 2030, mais restent expérimentaux en 2026.
AMD et Intel peuvent-ils rattraper Vera Rubin ?
AMD (MI325) et Intel (Falcon Shores) lancent leurs produits en 2026, mais accusent deux à trois ans de retard sur NVIDIA. Vera Rubin conserve son avance. AMD remporte quelques contrats chez les hyperscaleurs (Microsoft, Meta) dans une logique de diversification des fournisseurs. Intel peine à mener de front sa fonderie et ses GPU. Le constat du marché : les concurrents arrivent quand l’écosystème s’est déjà structuré autour de NVIDIA.
Sources : NVIDIA Newsroom, Datacenter Knowledge, SiliconANGLE, InsideHPC. Maillage interne : NVIDIA GTC 2026 Feynman, Marché des agents IA.
