Points clés

  • Meta dévoile quatre puces MTIA : 300 (en production), 400 (tests terminés), 450 et 500 (2027)
  • Un nouveau cycle de publication tous les six mois, contre 12-24 mois dans l’industrie
  • Meta a simultanément signé des contrats pour des millions de GPU NVIDIA et 6 GW de GPU AMD
  • La stratégie : diversifier l’approvisionnement en silicium pour réduire les risques et les coûts

Un pari silicium à double fond

En mars 2026, Meta a dévoilé une feuille de route silicium qui a surpris l’industrie. Non pas par l’ambition — Google, Amazon et Microsoft développent aussi leurs propres puces — mais par la cadence : Meta prévoit de livrer une nouvelle génération de puces tous les six mois ou moins. Dans un secteur où un cycle de 12 à 24 mois est la norme, c’est un changement de paradigme.

L’annonce intervient quelques semaines après que Meta a signé des contrats massifs avec NVIDIA (plusieurs millions de GPU) et AMD (jusqu’à 6 gigawatts de capacité GPU sur plusieurs années). La stratégie n’est pas de remplacer les fournisseurs externes, mais de multiplier les sources d’approvisionnement.

La thèse : l’autosuffisance comme avantage compétitif

Meta ne vise pas la meilleure puce du marché. L’objectif est plus subtil : disposer d’une alternative interne pour les charges de travail à haut volume et faible marge, tout en réservant les GPU haut de gamme de NVIDIA pour l’entraînement des modèles les plus complexes.

Les quatre puces MTIA en détail

La famille MTIA (Meta Training and Inference Accelerator), révélée pour la première fois en 2023, s’étoffe avec quatre nouvelles générations :

MTIA 300 est déjà en production dans les data centers de Meta. Elle gère les tâches de classement et de recommandation — le cœur du business publicitaire de Meta. Ces opérations, répétitives et massivement parallélisables, sont le terrain idéal pour des puces optimisées sur mesure.

MTIA 400 a terminé sa phase de test et sera déployée prochainement. Elle cible l’inférence en IA générative : génération d’images, de vidéos, et les interactions avec les assistants IA de Meta. Selon Meta, cette puce promet des gains significatifs en coût par inférence par rapport aux solutions GPU généralistes.

MTIA 450 et 500 sont prévues pour 2027. Elles s’appuient sur des designs modulaires et réutilisables, ce qui explique la cadence accélérée de développement.

Le contexte : une guerre des puces IA

La démarche de Meta s’inscrit dans un mouvement de fond. Google utilise ses TPU depuis 2016. Amazon dispose de ses puces Trainium et Inferentia. Microsoft a annoncé ses puces Maia. Mais Meta se distingue par l’agressivité de son calendrier et par sa stratégie de double approvisionnement.

Yee Jiun Song, vice-président ingénierie chez Meta, a expliqué à CNBC que les puces maison offrent « plus de diversité dans l’approvisionnement en silicium et une protection contre les fluctuations de prix ». Dans un contexte de pénurie récurrente de HBM (mémoire haute bande passante), disposer d’alternatives internes est un avantage stratégique.

Impact terrain : ce que ça change pour l’utilisateur

Pour les 3,2 milliards d’utilisateurs quotidiens de Meta, l’impact est indirect mais réel. Les puces MTIA optimisent les recommandations de contenu (fil d’actualité, Reels, marketplace) et réduisent le coût d’inférence des fonctionnalités IA générative. À terme, cela pourrait se traduire par des assistants IA plus rapides et des fonctionnalités génératives accessibles à davantage de marchés.

Pour l’industrie, la cadence semestrielle de Meta met la pression sur NVIDIA, dont le cycle de mise à jour (Hopper, Blackwell, Vera Rubin) reste annuel. Si Meta démontre qu’une itération rapide sur des puces spécialisées est viable, d’autres acteurs pourraient suivre.

Perspectives contradictoires

Les sceptiques soulignent que Meta n’a jamais réussi à se passer de NVIDIA pour l’entraînement de ses plus gros modèles. Les puces MTIA restent cantonnées à l’inférence et au classement — des tâches importantes mais secondaires par rapport à l’entraînement. Le risque : disperser les investissements entre le développement interne et les achats externes, sans exceller dans aucun des deux.

Prospective

Si MTIA 400 tient ses promesses en production, Meta pourrait réduire significativement sa facture NVIDIA d’ici 2028. Mais le pari repose sur l’exécution : maintenir un cycle semestriel tout en assurant la fiabilité en production est un défi d’ingénierie considérable.

FAQ

Les puces MTIA remplaceront-elles les GPU NVIDIA chez Meta ?

Non, pas à court terme. Meta utilise les MTIA pour l’inférence et le classement, tout en conservant les GPU NVIDIA pour l’entraînement des grands modèles. La stratégie est la complémentarité, pas le remplacement.

Pourquoi Meta sort-elle une puce tous les six mois ?

Meta utilise des designs modulaires et réutilisables, ce qui accélère le cycle de développement. Le partenariat avec Samsung et SK Hynix pour la fabrication et la mémoire soutient cette cadence.

D’autres entreprises développent-elles leurs propres puces IA ?

Oui. Google (TPU), Amazon (Trainium/Inferentia), Microsoft (Maia) et Apple (Neural Engine) développent tous des puces IA maison. C’est une tendance de fond dans l’industrie pour réduire la dépendance à NVIDIA.