- ▸ Points clés
- ▸ Pourquoi cette sortie compte
- ▸ Ce que disent les chiffres
- ▸ Ce que ça change concrètement
Points clés
- DeepSeek a publié V4-Pro et V4-Flash le 24 avril 2026, deux modèles open source sous licence MIT.
- V4-Pro affiche 1,6 trillion de paramètres totaux, dont 49 milliards activés à chaque inférence.
- Score de 80,6 % sur SWE-bench Verified, à 0,2 point de Claude Opus 4.6.
- Tarif API : 1,74 $ et 3,48 $ par million de tokens en entrée et en sortie pour la version Pro.
- Architecture hybride combinant Compressed Sparse Attention et Heavily Compressed Attention.
Le laboratoire chinois DeepSeek a publié le 24 avril 2026 deux modèles open source, V4-Pro et V4-Flash. La version Pro atteint 80,6 % sur SWE-bench Verified, à 0,2 point de Claude Opus 4.6, pour un prix sept fois inférieur.
Pourquoi cette sortie compte
L’écosystème surveillait depuis janvier les fuites concernant l’architecture du futur modèle. Le contexte est lourd : Anthropic occupe les quatre premières places du classement LMArena d’avril 2026, et OpenAI a publié GPT-5.5 quelques jours plus tôt. La parution simultanée de deux modèles, dont un calibré pour l’inférence à coût réduit, redistribue la grille tarifaire du marché.
L’annonce intervient également vingt-quatre heures après l’accusation officielle, le 23 avril, par l’administration américaine, de pratiques chinoises de copie « à l’échelle industrielle » des modèles US. Pékin a dénoncé une « calomnie ». DeepSeek a publié son modèle dès le lendemain, sans commentaire sur les accusations.
Ce que disent les chiffres
V4-Pro pèse 1,6 trillion de paramètres totaux pour 49 milliards activés à chaque inférence en architecture Mixture-of-Experts. La version Flash, plus légère, descend à 284 milliards de paramètres totaux et 13 milliards actifs. Les deux modèles offrent une fenêtre de contexte d’1 million de tokens.
L’innovation centrale est une attention hybride alternant deux mécanismes selon les couches : Compressed Sparse Attention et Heavily Compressed Attention. Cette combinaison permet à V4-Pro de ne mobiliser que 27 % des FLOPs et 10 % du cache KV de DeepSeek-V3.2 sur un contexte d’1 million de tokens, selon la fiche technique publiée par DeepSeek.
Côté benchmarks, V4-Pro atteint 80,6 % sur SWE-bench Verified, à 0,2 point sous Claude Opus 4.6. Sur Codeforces, il décroche un score de 3206, devant GPT-5.4 xHigh à 3168, d’après l’analyse publiée le 24 avril par Simon Willison. La grille tarifaire affichée par DeepSeek s’établit à 1,74 $ par million de tokens en entrée et 3,48 $ en sortie pour Pro, contre environ 25 $ pour Claude Opus 4.6 selon les données reprises par TechCrunch.
Ce que ça change concrètement
Pour un usage code intensif, l’écart se chiffre rapidement en milliers d’euros par mois. La licence MIT autorise par ailleurs le déploiement on-premise sans royalties, un atout pour les équipes soumises à des contraintes de confidentialité. La contrepartie : la politique de stockage de DeepSeek place les données utilisateurs sur des serveurs en Chine pour l’usage cloud, ce qui place l’API hors-RGPD pour la plupart des cas européens. Le déploiement local reste l’option de référence pour les entreprises soumises à la conformité.
FAQ
DeepSeek V4 est-il vraiment au niveau de Claude Opus 4.6 ?
Sur SWE-bench Verified, oui, à 0,2 point près. Sur des benchmarks comme l’analyse multimodale ou la rédaction longue, les comparaisons publiques restent à venir.
Peut-on faire tourner V4 sur sa propre infrastructure ?
V4-Flash, avec ses 13 milliards de paramètres actifs, reste accessible sur des configurations multi-GPU professionnelles. V4-Pro exige des clusters proches de ceux des hyperscalers en raison de sa taille mémoire totale de 1,6 trillion de paramètres.
À suivre
DeepSeek a annoncé la publication d’un rapport technique complet d’ici fin avril. À surveiller également : la réaction tarifaire d’OpenAI et d’Anthropic, et les premiers retours d’intégration via les frameworks agentiques. Pour aller plus loin, consultez notre test de Claude Sonnet 4.6 et notre analyse sur la nouvelle hiérarchie des LLM.



