Les processeurs NPU (Neural Processing Unit) intégrés aux laptops remplacent progressivement le GPU pour les tâches d’intelligence artificielle locale. Avec plus de 45 TOPS de puissance de calcul IA, les NPU des puces Qualcomm Snapdragon X Elite, Intel Lunar Lake et AMD Ryzen AI permettent d’exécuter des modèles de langage et de génération d’images directement sur l’appareil, sans connexion cloud.
NPU vs GPU : deux architectures pour des usages différents
Le GPU excelle dans le calcul massivement parallèle : rendu 3D, gaming, entraînement de modèles IA. Mais pour l’inférence locale — exécuter un modèle déjà entraîné — son architecture consomme trop d’énergie. Un GPU dédié mobilise entre 30 et 150 watts, drainant la batterie d’un laptop en moins de deux heures sous charge IA.
Le NPU adopte une architecture spécialisée pour les opérations matricielles et les réseaux de neurones. Sa consommation oscille entre 5 et 15 watts pour des performances d’inférence comparables. Selon les benchmarks de Qualcomm, le NPU du Snapdragon X Elite exécute Llama 3.2 8B à 22 tokens par seconde avec une consommation de 8 watts, là où le GPU intégré atteint 15 tokens/s pour 25 watts.
Les AI PC : une nouvelle catégorie de laptops
Microsoft a défini le label « Copilot+ PC » pour les machines embarquant un NPU de 40 TOPS minimum. En mars 2026, plus de 150 modèles de laptops répondent à ce critère, couvrant toutes les gammes de prix de 600 à 3 000 euros. Les ventes de AI PC représentent désormais 43 % du marché laptop mondial selon Canalys, contre 18 % un an plus tôt.
Les trois principaux fabricants de puces rivalisent d’innovation. Intel Lunar Lake embarque un NPU de 48 TOPS avec support natif du format INT4 pour les modèles quantifiés. AMD Ryzen AI 300 atteint 50 TOPS et intègre un bloc XDNA 2 optimisé pour les transformers. Qualcomm Snapdragon X Elite domine l’efficacité énergétique avec 45 TOPS sous 10 watts grâce à son architecture ARM.
Ce que le NPU change concrètement
Les applications exploitant le NPU se multiplient. Windows 11 utilise le NPU pour la suppression de bruit en visioconférence, le sous-titrage en temps réel de 44 langues, et la recherche sémantique dans les fichiers locaux. Adobe Premiere Pro déporte le rotoscoping automatique sur le NPU, libérant le GPU pour le rendu vidéo. DaVinci Resolve utilise le NPU pour la colorimétrie IA.
L’exécution de LLM en local constitue l’usage phare. Avec des outils comme Ollama ou LM Studio, un AI PC peut faire tourner Phi-3 Mini, Llama 3.2 ou Mistral 7B directement sur le NPU. Les données restent sur l’appareil, éliminant les problèmes de confidentialité liés au cloud. Un développeur peut interroger un assistant IA sans connexion internet, avec des temps de réponse inférieurs à la seconde.
Les limites du NPU en 2026
Le NPU ne remplace pas le GPU pour toutes les tâches. Les modèles dépassant 13 milliards de paramètres restent trop volumineux pour la mémoire unifiée de la plupart des laptops (16 à 32 Go). L’entraînement de modèles — même le fine-tuning — reste l’apanage des GPU dédiés ou du cloud. Le NPU est un accélérateur d’inférence, pas un remplaçant universel.
L’écosystème logiciel manque encore de maturité. De nombreuses applications n’exploitent pas encore le NPU, faute de portage vers les frameworks compatibles (ONNX Runtime, DirectML, Qualcomm AI Engine). Les développeurs doivent adapter leur code pour cibler spécifiquement le NPU, un effort que beaucoup d’éditeurs n’ont pas encore entrepris.
Faut-il acheter un AI PC maintenant ?
Pour un usage professionnel impliquant de la visioconférence, du traitement de texte assisté par IA ou de la création de contenu, le NPU apporte un gain tangible en autonomie et en réactivité. Pour le gaming ou le montage vidéo lourd, le GPU dédié reste indispensable. Le choix dépend de la priorité entre mobilité IA et puissance brute.
La deuxième génération de NPU, attendue fin 2026, promet un saut à 70-100 TOPS. Cette puissance permettra d’exécuter des modèles de 30 milliards de paramètres en local, rapprochant les laptops des performances actuelles du cloud pour l’inférence IA.
FAQ
Le NPU fonctionne-t-il sous Linux ?
Le support Linux varie selon les fabricants. Intel offre un support complet via OpenVINO. Qualcomm propose des drivers Linux depuis janvier 2026. AMD XDNA reste principalement optimisé pour Windows, avec un support Linux expérimental.
Peut-on désactiver le NPU pour économiser de la batterie ?
Le NPU consomme moins de 0,5 watt en veille. Le désactiver n’apporte aucun gain mesurable d’autonomie. Il ne s’active pleinement que lorsqu’une application le sollicite explicitement.
Mon ancien laptop peut-il bénéficier d’un NPU externe ?
Des solutions comme le Coral USB Accelerator de Google ou le Neural Compute Stick d’Intel existent, mais leurs performances (4-8 TOPS) restent très inférieures aux NPU intégrés. L’achat d’un AI PC récent offre un meilleur rapport qualité-prix.



