Mes lectures 0

Mes lectures

IA Générale

DeepSeek V4 : 1,6T paramètres et 1M tokens en open source

DeepSeek dévoile V4-Pro et V4-Flash le 24 avril 2026 : 1,6 trillion de paramètres, contexte 1 million de tokens, prix sept fois inférieur à Claude Opus.

Empilement de cartes mères et dissipateurs en cuivre sur un plan de travail en ardoise sombre
📋 En bref
DeepSeek dévoile V4-Pro et V4-Flash le 24 avril 2026 : 1,6 trillion de paramètres, contexte 1 million de tokens, prix sept fois inférieur à Claude Opus.
  • Points clés
  • Pourquoi cette sortie compte
  • Ce que disent les chiffres
  • Ce que ça change concrètement

Points clés

  • DeepSeek a publié V4-Pro et V4-Flash le 24 avril 2026, deux modèles open source sous licence MIT.
  • V4-Pro affiche 1,6 trillion de paramètres totaux, dont 49 milliards activés à chaque inférence.
  • Score de 80,6 % sur SWE-bench Verified, à 0,2 point de Claude Opus 4.6.
  • Tarif API : 1,74 $ et 3,48 $ par million de tokens en entrée et en sortie pour la version Pro.
  • Architecture hybride combinant Compressed Sparse Attention et Heavily Compressed Attention.

Le laboratoire chinois DeepSeek a publié le 24 avril 2026 deux modèles open source, V4-Pro et V4-Flash. La version Pro atteint 80,6 % sur SWE-bench Verified, à 0,2 point de Claude Opus 4.6, pour un prix sept fois inférieur.

Pourquoi cette sortie compte

L’écosystème surveillait depuis janvier les fuites concernant l’architecture du futur modèle. Le contexte est lourd : Anthropic occupe les quatre premières places du classement LMArena d’avril 2026, et OpenAI a publié GPT-5.5 quelques jours plus tôt. La parution simultanée de deux modèles, dont un calibré pour l’inférence à coût réduit, redistribue la grille tarifaire du marché.

L’annonce intervient également vingt-quatre heures après l’accusation officielle, le 23 avril, par l’administration américaine, de pratiques chinoises de copie « à l’échelle industrielle » des modèles US. Pékin a dénoncé une « calomnie ». DeepSeek a publié son modèle dès le lendemain, sans commentaire sur les accusations.

Ce que disent les chiffres

V4-Pro pèse 1,6 trillion de paramètres totaux pour 49 milliards activés à chaque inférence en architecture Mixture-of-Experts. La version Flash, plus légère, descend à 284 milliards de paramètres totaux et 13 milliards actifs. Les deux modèles offrent une fenêtre de contexte d’1 million de tokens.

L’innovation centrale est une attention hybride alternant deux mécanismes selon les couches : Compressed Sparse Attention et Heavily Compressed Attention. Cette combinaison permet à V4-Pro de ne mobiliser que 27 % des FLOPs et 10 % du cache KV de DeepSeek-V3.2 sur un contexte d’1 million de tokens, selon la fiche technique publiée par DeepSeek.

Côté benchmarks, V4-Pro atteint 80,6 % sur SWE-bench Verified, à 0,2 point sous Claude Opus 4.6. Sur Codeforces, il décroche un score de 3206, devant GPT-5.4 xHigh à 3168, d’après l’analyse publiée le 24 avril par Simon Willison. La grille tarifaire affichée par DeepSeek s’établit à 1,74 $ par million de tokens en entrée et 3,48 $ en sortie pour Pro, contre environ 25 $ pour Claude Opus 4.6 selon les données reprises par TechCrunch.

Ce que ça change concrètement

Pour un usage code intensif, l’écart se chiffre rapidement en milliers d’euros par mois. La licence MIT autorise par ailleurs le déploiement on-premise sans royalties, un atout pour les équipes soumises à des contraintes de confidentialité. La contrepartie : la politique de stockage de DeepSeek place les données utilisateurs sur des serveurs en Chine pour l’usage cloud, ce qui place l’API hors-RGPD pour la plupart des cas européens. Le déploiement local reste l’option de référence pour les entreprises soumises à la conformité.

FAQ

DeepSeek V4 est-il vraiment au niveau de Claude Opus 4.6 ?

Sur SWE-bench Verified, oui, à 0,2 point près. Sur des benchmarks comme l’analyse multimodale ou la rédaction longue, les comparaisons publiques restent à venir.

Peut-on faire tourner V4 sur sa propre infrastructure ?

V4-Flash, avec ses 13 milliards de paramètres actifs, reste accessible sur des configurations multi-GPU professionnelles. V4-Pro exige des clusters proches de ceux des hyperscalers en raison de sa taille mémoire totale de 1,6 trillion de paramètres.

À suivre

DeepSeek a annoncé la publication d’un rapport technique complet d’ici fin avril. À surveiller également : la réaction tarifaire d’OpenAI et d’Anthropic, et les premiers retours d’intégration via les frameworks agentiques. Pour aller plus loin, consultez notre test de Claude Sonnet 4.6 et notre analyse sur la nouvelle hiérarchie des LLM.

Avatar photo
À propos de l'auteur

MEGUEDMI Mohamed

Je suis Mohamed Meguedmi, fondateur et directeur éditorial de LagazetteIA. Multi-entrepreneur passionné de tech depuis toujours, j'ai intégré l'IA dans chacune de mes entreprises dès ses débuts. Chaque semaine, je teste des dizaines d'outils IA, compare les modèles et décortique les dernières avancées pour vous donner un avis concret, sans bullshit. Mon objectif avec LagazetteIA : vous faire gagner du temps et vous aider à prendre les bonnes décisions dans cette révolution technologique. La rédaction s'appuie sur des outils d'analyse modernes (incluant l'IA générative) et chaque publication est vérifiée et validée par mes soins avant mise en ligne. Profil LinkedIn : https://www.linkedin.com/in/mohamed-meguedmi/