Version courte : l'ancienne version était dépassée. DeepSeek V4 est sorti, et Qwen3-Max-Thinking n'est plus une simple rumeur de benchmark. Vérifié le 10 mai 2026 : DeepSeek V4 Flash est le premier test logique pour une API peu chère avec contexte 1M. DeepSeek V4 Pro est l'option DeepSeek la plus forte, mais son prix remisé est temporaire jusqu'au 31 mai 2026. Qwen3-Max-Thinking colle mieux si tu travailles déjà dans Alibaba Cloud Model Studio, si tu as besoin du tool-use de Qwen ou si son profil de benchmarks de raisonnement t'intéresse.
- DeepSeek-V4 Preview est sorti le 24 avril 2026 avec V4 Pro et V4 Flash
- DeepSeek V4 supporte un contexte 1M, une API format OpenAI, une API format Anthropic et des poids ouverts
- DeepSeek V4 Flash est listé à $0.14 input cache-miss et $0.28 output par 1M tokens
- DeepSeek V4 Pro a 75% de remise jusqu'au 31 mai 2026 : $0.435 input cache-miss et $0.87 output par 1M tokens
- Alibaba Cloud liste qwen3-max-2026-01-23 comme snapshot thinking-mode de Qwen3-Max
- Qwen3-Max supporte 262,144 tokens de contexte, 81,920 tokens maximum de chain-of-thought et 32,768 tokens maximum de sortie
- Le prix Global Alibaba Cloud pour qwen3-max commence à $0.359 input et $1.434 output par 1M tokens jusqu'à 32K tokens
- Le blog officiel Qwen rapporte 85.9 sur LiveCodeBench v6, 75.3 sur SWE Verified et 49.8 sur HLE with tools
Ce post comparait surtout DeepSeek V3 et Qwen. Ce cadre est maintenant faux. DeepSeek V4 est live, et le comparatif utile est DeepSeek V4 Flash/Pro face à Qwen3-Max-Thinking.
Cette mise à jour utilise les docs API officiels de DeepSeek, la note V4 officielle, le blog officiel Qwen3-Max-Thinking et les docs Alibaba Cloud Model Studio. Je ne traite pas les vieux récapitulatifs de benchmarks tiers comme source principale.
Réponse courte
Le choix en langage simple.
Choisis DeepSeek V4 Flash si le coût et le contexte 1M comptent le plus. Choisis DeepSeek V4 Pro si tu veux le modèle DeepSeek plus fort pour le raisonnement, l'agentic coding ou la connaissance générale, et si tu acceptes un prix remisé temporaire. Choisis Qwen3-Max-Thinking si tu construis dans Alibaba Cloud Model Studio, si tu as besoin du chemin tool-use de Qwen ou si tu veux son profil officiel de benchmarks face à GPT-5.2-Thinking, Claude Opus 4.5, Gemini 3 Pro et DeepSeek V3.2.
Recommandation rapide
| Besoin | Choix | Pourquoi |
|---|---|---|
| Default API long contexte le moins cher | DeepSeek V4 Flash | Prix officiel le plus bas et contexte 1M |
| Raisonnement ou code plus difficile dans DeepSeek | DeepSeek V4 Pro | DeepSeek le positionne comme le modèle phare V4 |
| Workflow Alibaba Cloud / Model Studio | Qwen3-Max-Thinking | Support natif Qwen/Alibaba, tool calling et prix Model Studio |
| Expérimentation avec poids ouverts | DeepSeek V4 | DeepSeek renvoie vers des poids ouverts depuis la note officielle |
| Profil de benchmark raisonnement Qwen | Qwen3-Max-Thinking | Qwen rapporte de bons résultats sur LiveCodeBench, HLE with tools et Arena-Hard v2 |
Statut actuel
Ce qui est vraiment disponible.
Statut release et API
| Élément | DeepSeek V4 | Qwen3-Max-Thinking |
|---|---|---|
| Statut | DeepSeek-V4 Preview est live depuis le 24 avril 2026 | Qwen3-Max-Thinking annoncé par Qwen le 25 janvier 2026 |
| Noms de modèles API | deepseek-v4-flash, deepseek-v4-pro | qwen3-max et qwen3-max-2026-01-23 dans les docs Alibaba Cloud |
| Contexte | 1M | 262,144 tokens |
| Sortie maximale | 384K listé par DeepSeek | 32,768 tokens de sortie en mode thinking |
| Tool use | Tool calls supportés | Les docs Alibaba listent le support tool calling |
| Poids | Poids ouverts liés par DeepSeek | Ne pas supposer des poids ouverts façon DeepSeek juste parce que l'API existe |
Source: DeepSeek API Docs, blog Qwen, Alibaba Cloud Model Studio
DeepSeek, Qwen, Claude ou GPT ? Trouve le modèle adapté à ton cas en 60 secondes.
Plus de 50 implémentations · 60 % plus rapide · 2-4 semaines
L'ancien article est devenu faux après le 24 avril
Tout texte pre-release sur DeepSeek V4 est maintenant dépassé. La note officielle de DeepSeek dit que V4 Preview est live, open-sourced et disponible via API.
Prix
DeepSeek est moins cher, mais la remise Pro a une date de fin.
DeepSeek et Alibaba ne facturent pas de la même façon. DeepSeek sépare input cache-hit et cache-miss. Alibaba Cloud liste Qwen3-Max par mode de déploiement et taille de requête. Le tableau utilise les prix officiels DeepSeek et le prix Global d'Alibaba Cloud, car c'est le mode public le plus pertinent hors Chine.
Prix officiels, vérifiés le 10 mai 2026
| Modèle | Prix input | Prix output | Notes |
|---|---|---|---|
| DeepSeek V4 Flash | $0.0028 cache hit / $0.14 cache miss par 1M tokens | $0.28 par 1M tokens | Contexte 1M |
| DeepSeek V4 Pro | $0.003625 cache hit / $0.435 cache miss par 1M tokens | $0.87 par 1M tokens | 75% de remise jusqu'au 31 mai 2026; output listé à $3.48 |
| Qwen3-Max Global, <=32K input | $0.359 par 1M tokens | $1.434 par 1M tokens | Prix Global par tiers Alibaba Cloud |
| Qwen3-Max Global, 32K-128K input | $0.574 par 1M tokens | $2.294 par 1M tokens | Tier supérieur pour requêtes plus longues |
| Qwen3-Max Global, 128K-252K input | $1.004 par 1M tokens | $4.014 par 1M tokens | Tier Global le plus haut listé dans la source |
Source: DeepSeek Models & Pricing; Alibaba Cloud Model Studio pricing
Lecture pratique : DeepSeek V4 Flash est le default moins cher. Qwen3-Max n'est pas un modèle low-cost dès que les entrées s'allongent. Il peut rester le bon choix si l'écosystème Qwen, les langues, le tool-use ou ses benchmarks comptent plus que le coût brut.
Benchmarks
Claims fournisseurs, pas preuve indépendante.
Qwen publie plus de détails benchmark en texte pour Qwen3-Max-Thinking que DeepSeek pour V4. DeepSeek fait des claims forts, mais beaucoup de tableaux détaillés sont en image. Le bon comparatif n'est donc pas "qui gagne partout". C'est : que dit officiellement chaque fournisseur, et que peut-on utiliser sans inventer ?
Claims officiels de benchmarks et capacités
| Domaine | DeepSeek V4 | Qwen3-Max-Thinking |
|---|---|---|
| Agentic coding | DeepSeek dit que V4 Pro est open-source SOTA sur les benchmarks d'agentic coding | Qwen rapporte 75.3 sur SWE Verified |
| Competitive coding | DeepSeek dit que V4 Pro bat les modèles ouverts actuels en coding | Qwen rapporte 85.9 sur LiveCodeBench v6 |
| Science / raisonnement | DeepSeek dit que V4 Pro bat les modèles ouverts actuels en Math, STEM et coding | Qwen rapporte 87.4 sur GPQA et 98.0 sur HMMT Feb 25 |
| Agentic search | DeepSeek met l'accent sur intégration agents et contexte 1M | Qwen rapporte 49.8 sur HLE with tools |
| Routing sensible au coût | V4 Flash est le premier test clair | Qwen gagne quand le stack Alibaba/Qwen compte plus que le coût brut |
Source: Note V4 DeepSeek; blog officiel Qwen3-Max-Thinking
Ne surinterprète pas les benchmarks fournisseurs
Ce sont des claims des fournisseurs. Ils orientent, mais ne remplacent pas des tests avec tes prompts, ton code, tes limites de latence et ton profil de coût.
Quel modèle choisir ?
Le modèle doit suivre le travail.
Table de décision
| Workload | Premier test | Pourquoi |
|---|---|---|
| Traitement de documents longs | DeepSeek V4 Flash | Contexte 1M et sortie peu chère |
| Appels agents à haut volume | DeepSeek V4 Flash | Moins cher que Qwen sur les prix officiels listés |
| Expériences open-weight avec raisonnement difficile | DeepSeek V4 Pro | Modèle phare DeepSeek V4 avec poids liés |
| Stack de production Alibaba Cloud | Qwen3-Max-Thinking | Support natif Model Studio et docs de prix |
| Raisonnement tool-use dans Qwen | Qwen3-Max-Thinking | Qwen décrit l'adaptive tool use et Model Studio liste tool calling |
| Stabilité de coût après le 31 mai | Re-vérifier avant de choisir | La remise V4 Pro est temporaire; V4 Flash paraît plus stable dans les docs |
Si je devais choisir un default pour la plupart des équipes, je commencerais par DeepSeek V4 Flash. Il est assez bon marché pour être testé largement, supporte un long contexte et garde la migration simple. Je testerais Qwen3-Max-Thinking quand l'application dépend déjà d'Alibaba Cloud ou quand les forces spécifiques de Qwen collent au workload.
Sources officielles vérifiées
Pas de vieux mirrors de benchmarks V3.
- DeepSeek V4 Preview Release
- DeepSeek Models & Pricing
- DeepSeek API Change Log
- Qwen : blog officiel Qwen3-Max-Thinking
- Modèles supportés Alibaba Cloud Model Studio
- Prix Alibaba Cloud Model Studio
Conclusion
DeepSeek est le choix par coût. Qwen est le choix d'écosystème.
L'ancien titre était trop large. Les modèles chinois ne "battent" pas automatiquement GPT partout, et une page sérieuse ne devrait pas vendre une conclusion pareille à partir d'un seul benchmark. La mise à jour utile est plus précise : DeepSeek V4 est live et doit être testé d'abord quand tu as besoin d'une API peu chère avec contexte 1M. Qwen3-Max-Thinking est plus logique quand ton déploiement, tes outils ou ton évaluation vivent déjà dans l'écosystème Alibaba/Qwen.
Pour les détails DeepSeek uniquement, lis le guide DeepSeek V4 release et prix. Pour choisir entre modèles fermés et ouverts, utilise l'AI Model Picker. Si le coût mensuel est le sujet principal, compare ton usage dans le calculateur de coût IA.
Continuer la lecture
Besoin de choisir le bon modèle d'IA ?
Compare les modèles par usage, coût, longueur de contexte et fit avec ton workflow.
Essayer l'AI Model Picker


