Qwen 3.5, lancé le 1er mars 2026 par Alibaba, est une famille de quatre modèles open source (0.8B, 2B, 4B, 9B paramètres) capables de tourner sur un laptop ou un smartphone. Le modèle 9B surpasse GPT-oss-120B d’OpenAI sur le benchmark GPQA Diamond avec un score de 81,7 contre 80,1, malgré un ratio de paramètres de 1 à 13.
Points clés
- 4 modèles compacts — 0.8B, 2B, 4B et 9B paramètres, tous exécutables en local sans GPU serveur.
- Open source intégral — Poids disponibles sur Hugging Face sous licence Apache 2.0.
- Performance de référence — Le 9B bat GPT-oss-120B et rivalise avec Claude Sonnet 4.5 sur les benchmarks tiers.
- IA locale et souveraine — Aucune donnée ne transite vers un serveur distant, un argument décisif pour les entreprises européennes soumises au RGPD.
Un rapport performance-taille inédit
L’exploit technique de Qwen 3.5 tient en un chiffre : le modèle 9B atteint 81,7 sur GPQA Diamond, un benchmark de raisonnement scientifique réputé difficile. À titre de comparaison, GPT-oss-120B — un modèle 13 fois plus gros — plafonne à 80,1. Selon VentureBeat, c’est la première fois qu’un modèle de moins de 10 milliards de paramètres surpasse un modèle de 100 milliards sur ce type de test.
Alibaba y parvient grâce à une architecture Mixture-of-Experts optimisée et un pipeline d’entraînement en plusieurs étapes qui combine pré-entraînement, fine-tuning supervisé et alignement par renforcement. Les modèles de la famille Qwen 3.5 gèrent aussi bien le texte que les images en entrée, ce qui en fait de véritables modèles multimodaux malgré leur taille réduite.
L’IA locale : un avantage stratégique
Le principal intérêt de Qwen 3.5 ne réside pas dans les benchmarks, mais dans son exécution 100 % locale. Un modèle qui tourne sur un ordinateur portable ne nécessite aucun envoi de données vers le cloud. Pour une PME française qui manipule des données clients sensibles, c’est un argument massif face aux solutions cloud de type GPT-5.4 ou Gemini 3.1.
Selon Pandaily, Alibaba positionne explicitement Qwen 3.5 comme l’alternative souveraine aux modèles américains fermés. La stratégie est claire : inonder le marché open source pour imposer l’écosystème Qwen comme standard de facto, un peu comme Anthropic l’a fait avec le protocole MCP.
Qui se cache derrière Qwen ?
La famille Qwen est développée par Alibaba Cloud, la division cloud du géant chinois. Depuis le lancement de Qwen 1.0 fin 2023, l’équipe a publié plus de 200 modèles sur Hugging Face, totalisant plus de 280 millions de téléchargements. Qwen 3.5 occupe actuellement les quatre premières places du classement global des modèles open source sur la plateforme.
Toutefois, VentureBeat rapporte le départ de plusieurs figures clés de l’équipe Qwen peu après le lancement de la version 3.5. Un signal qui interroge sur la pérennité de l’investissement d’Alibaba dans l’IA ouverte, à un moment où la Chine durcit sa réglementation sur les modèles de fondation.
Cas d’usage concrets
Qwen 3.5 excelle dans quatre scénarios : la résumation de documents (rapports financiers, contrats), l’assistance au code (le 4B rivalise avec GitHub Copilot pour les snippets courts), la Q&A sur base de connaissances (RAG local) et l’analyse d’images (factures, schémas techniques). Le modèle 0.8B est assez léger pour tourner sur un smartphone Android haut de gamme, ouvrant la voie à des assistants IA embarqués sans connexion internet.
FAQ
Qwen 3.5 est-il vraiment gratuit ?
Oui. Tous les modèles Qwen 3.5 sont publiés sous licence Apache 2.0, ce qui autorise l’utilisation commerciale sans restriction ni redevance.
Quel matériel faut-il pour faire tourner le modèle 9B ?
En quantification 4 bits, le 9B requiert environ 6 Go de RAM GPU. Un MacBook Pro M3 avec 16 Go de mémoire unifiée suffit largement. En CPU seul, comptez un débit d’environ 5 à 8 tokens par seconde.
Qwen 3.5 peut-il remplacer ChatGPT ?
Pour des tâches simples (résumé, Q&A, code court), le 9B offre une qualité comparable. Pour les tâches complexes multi-étapes ou les interactions longues, les modèles fermés comme GPT-5.4 conservent un avantage significatif.



