Version courte : vérifié le 10 mai 2026 : DeepSeek V4 est disponible. Les documents officiels indiquent que DeepSeek-V4 Preview est sorti le 24 avril 2026 avec deux modèles : V4 Pro et V4 Flash. Les deux supportent un contexte de 1M, les deux sont disponibles via l'API, et DeepSeek renvoie vers des poids ouverts depuis la note de sortie. Le point à surveiller, c'est le prix : V4 Pro bénéficie d'une remise temporaire de 75% jusqu'au 31 mai 2026.
- DeepSeek-V4 Preview est disponible depuis le 24 avril 2026 selon DeepSeek API Docs
- Les deux modèles API sont deepseek-v4-pro et deepseek-v4-flash
- DeepSeek-V4-Pro est listé avec 1.6T paramètres totaux et 49B paramètres actifs
- DeepSeek-V4-Flash est listé avec 284B paramètres totaux et 13B paramètres actifs
- Les deux modèles V4 supportent un contexte de 1M et les modes thinking / non-thinking
- DeepSeek liste des endpoints au format OpenAI et au format Anthropic
- DeepSeek renvoie vers un rapport technique et des poids ouverts depuis la note officielle
- DeepSeek dit que deepseek-chat et deepseek-reasoner seront retirés après le 24 juillet 2026 à 15:59 UTC
Cet article était autrefois un suivi avant lancement. Ce n'est plus le bon angle.
DeepSeek a maintenant publié une note officielle V4 Preview, une page de prix API, des noms de modèles, des limites de contexte, les détails des endpoints, un lien vers le rapport technique et des poids ouverts. La question utile n'est plus "quand V4 sortira". C'est : qu'est-ce qui a été livré, combien cela coûte, et que doivent changer les développeurs ?
Cette mise à jour utilise uniquement des sources DeepSeek ou liées officiellement par DeepSeek. Pas de rumeurs. Pas de compilation de benchmarks tiers. Pas de supposition.
Réponse courte
Voici la règle pratique.
Teste d'abord deepseek-v4-flash si tu veux des appels API peu chers, un contexte de 1M et un modèle de production qui peut gérer les modes thinking et non-thinking. Utilise deepseek-v4-pro quand la tâche demande un raisonnement plus fort, du code plus difficile ou une meilleure connaissance générale. Mais date bien ton calcul de coût, car la remise V4 Pro actuelle se termine le 31 mai 2026 à 15:59 UTC.
Choix rapide DeepSeek V4
| Besoin | Utiliser | Pourquoi |
|---|---|---|
| Coût API le plus bas | deepseek-v4-flash | DeepSeek liste des prix cache-miss input et output plus bas que V4 Pro |
| Raisonnement ou agentic coding plus difficile | deepseek-v4-pro | DeepSeek le décrit comme le modèle phare de V4 |
| Compatibilité legacy | Migrer depuis deepseek-chat / deepseek-reasoner | DeepSeek dit que les deux noms seront retirés après le 24 juillet 2026 |
| Expérimentation avec poids ouverts | Poids V4 Flash ou V4 Pro | DeepSeek renvoie vers la collection de poids depuis la note officielle |
Source: Release officiel, page de prix et changelog DeepSeek
Note sur les sources
Les sources principales sont la note DeepSeek V4 Preview, la page Models & Pricing et le Change Log. Les prix peuvent changer. DeepSeek recommande de vérifier la page de prix régulièrement.
Statut officiel : DeepSeek V4 Preview est live
L'ancienne discussion sur février est dépassée.
La note officielle indique que DeepSeek-V4 Preview est disponible depuis le 24 avril 2026. Elle dit aussi que le modèle est open-sourced, avec un rapport technique et des poids ouverts liés depuis le même post officiel.
Ce qui a changé depuis l'ancien article
| Ancien angle | Statut officiel actuel |
|---|---|
| Sortie attendue mi-février 2026 | V4 Preview publié officiellement le 24 avril 2026 |
| Contexte 1M encore au stade de rumeur | 1M listé dans la note de sortie et la page de prix |
| Prix attendus | Prix publiés dans DeepSeek API Docs |
| Sortie open source attendue | DeepSeek dit que V4 Preview est open-sourced et renvoie vers les poids |
| Détails API spéculatifs | DeepSeek liste les noms de modèles, base URLs, modes et fonctions |
Sources officielles :
- DeepSeek-V4 Preview Release
- DeepSeek Models & Pricing
- DeepSeek API Change Log
- Collection de poids DeepSeek V4 liée par DeepSeek
- Rapport technique DeepSeek V4 lié par DeepSeek
DeepSeek V4 Pro vs DeepSeek V4 Flash
Même génération, deux rôles différents.
DeepSeek a séparé V4 en deux modèles. V4 Pro est le plus grand. V4 Flash est l'option plus rapide et moins chère.
Détails des modèles DeepSeek V4
| Modèle | Description officielle | Paramètres | Meilleur usage |
|---|---|---|---|
| DeepSeek-V4-Pro | Modèle phare pour raisonnement, connaissance générale et agentic coding | 1.6T total / 49B actifs | Code difficile, recherche, travail long contexte |
| DeepSeek-V4-Flash | Modèle V4 plus petit, plus rapide et plus économique | 284B total / 13B actifs | Volume élevé, tâches d'agents simples, routing sensible au coût |
Source: DeepSeek V4 Preview Release
Besoin d'aide pour implémenter ceci ?
Plus de 50 implémentations · 60 % plus rapide · 2-4 semaines
DeepSeek dit que les capacités de raisonnement de V4 Flash se rapprochent de V4 Pro et que Flash est au niveau de V4 Pro sur des tâches d'agents simples. Je testerais quand même les deux sur ton vrai workload. "Tâche d'agent simple" reste une formule large.
Accès API et migration
Garde la base URL, change le nom du modèle.
DeepSeek dit que l'API est disponible maintenant. La migration est directe : garder la même base URL et passer le modèle à deepseek-v4-pro ou deepseek-v4-flash.
Détails API DeepSeek V4
| Élément | Valeur officielle |
|---|---|
| Base URL format OpenAI | https://api.deepseek.com |
| Base URL format Anthropic | https://api.deepseek.com/anthropic |
| Noms de modèles | deepseek-v4-flash, deepseek-v4-pro |
| Modes thinking | Thinking et non-thinking supportés |
| Longueur de contexte | 1M |
| Sortie maximale | 384K |
| JSON output | Supporté |
| Tool calls | Supporté |
| FIM completion | Mode non-thinking seulement |
Source: DeepSeek Models & Pricing
Les anciens noms DeepSeek vont disparaître
DeepSeek dit que deepseek-chat et deepseek-reasoner sont actuellement routés vers DeepSeek V4 Flash. La note officielle V4 dit que ces noms seront retirés après le 24 juillet 2026 à 15:59 UTC.
Si ton application appelle encore deepseek-chat ou deepseek-reasoner, n'attends pas la date limite. Passe aux noms V4, puis teste la longueur de sortie, les tool calls, le JSON, la latence et les coûts avant de dépendre de ce chemin en production.
Prix DeepSeek V4
La remise compte, donc date tes chiffres.
DeepSeek liste les prix par 1M tokens. Au 10 mai 2026, V4 Flash est au prix normal listé, tandis que V4 Pro apparaît avec une remise temporaire de 75%. DeepSeek dit que cette remise V4 Pro dure jusqu'au 31 mai 2026 à 15:59 UTC.
Prix API DeepSeek V4 au 10 mai 2026
| Modèle | Input cache hit | Input cache miss | Output |
|---|---|---|---|
| DeepSeek V4 Flash | $0.0028 | $0.14 | $0.28 |
| DeepSeek V4 Pro | $0.003625 avec remise depuis $0.0145 | $0.435 avec remise depuis $1.74 | $0.87 avec remise depuis $3.48 |
Source: DeepSeek Models & Pricing
Le prix cache-hit est facile à manquer. DeepSeek dit qu'il a été réduit à un dixième du prix de lancement depuis le 26 avril 2026 à 12:15 UTC. Si ton workload répète de longs prompts système ou du contexte partagé, cela change beaucoup le calcul.
Utilise les prix actuels pour acheter
Les prix V4 Pro ci-dessus incluent une remise temporaire. Si tu lis cela après le 31 mai 2026, vérifie la page de prix de DeepSeek avant de comparer.
Benchmarks et claims de performance
Ce que DeepSeek dit, et ce que nous ne disons pas.
La note de sortie de DeepSeek fait des claims forts, mais la page officielle en texte n'expose pas toutes les tables détaillées. Ce guide reste donc volontairement prudent.
Claims officiels dans la note de sortie
| Domaine | Claim officiel de DeepSeek |
|---|---|
| Agentic coding | V4 Pro est décrit comme open-source SOTA sur des benchmarks d'agentic coding |
| Connaissance générale | V4 Pro est décrit comme leader parmi les modèles ouverts actuels et seulement derrière Gemini 3.1 Pro |
| Raisonnement | V4 Pro est décrit comme supérieur aux modèles ouverts actuels en Math, STEM et coding |
| V4 Flash | DeepSeek dit que V4 Flash se rapproche de V4 Pro en raisonnement |
| Tâches d'agents simples | DeepSeek dit que V4 Flash est au niveau de V4 Pro sur des tâches d'agents simples |
Source: DeepSeek V4 Preview Release
Ce sont des claims officiels de DeepSeek. Ils sont utiles, mais ils restent des claims du fournisseur. Je n'ajoute pas ici de chiffres tiers parce que cette mise à jour devait rester sur sources officielles.
Notes d'architecture
Ce que DeepSeek nomme explicitement dans V4.
L'ancien article parlait beaucoup d'Engram et de mHC. Ces pistes peuvent être intéressantes, mais la note officielle V4 Preview cite directement d'autres éléments.
Architecture et capacités selon DeepSeek
| Élément | Ce que dit DeepSeek |
|---|---|
| DeepSeek Sparse Attention | V4 utilise une compression token-wise avec DSA |
| Long contexte | 1M de contexte est listé par défaut dans les services officiels DeepSeek |
| Intégrations agents | DeepSeek dit que V4 est intégré à des agents comme Claude Code, OpenClaw et OpenCode |
| Compatibilité API | OpenAI ChatCompletions et APIs Anthropic sont supportés |
| Modes | Les deux modèles V4 supportent thinking et non-thinking |
Source: DeepSeek V4 Preview Release
La description la plus simple de V4 : DeepSeek pousse le long contexte, l'inférence moins chère et les workflows agents. Pour les détails d'ingénierie, lis le rapport technique officiel lié depuis la note de sortie.
Checklist de migration
Ce qu'il faut tester avant la production.
Étapes de migration DeepSeek V4
- 1Remplacer deepseek-chat ou deepseek-reasoner par deepseek-v4-flash ou deepseek-v4-pro
- 2Garder la base URL sauf si tu changes entre format OpenAI et format Anthropic
- 3Décider si chaque appel doit utiliser thinking ou non-thinking
- 4Tester JSON output, tool calls et FIM completion si ton app en dépend
- 5Revoir les hypothèses de sortie parce que DeepSeek liste 384K en sortie maximale
- 6Recalculer le coût en séparant cache-hit et cache-miss
- 7Dater toute comparaison de coût V4 Pro parce que la remise est temporaire
Pour la plupart des applications, V4 Flash est le premier modèle à tester. Il est bien moins cher, les anciens noms de compatibilité routent vers lui, et DeepSeek le positionne pour un usage économique en production. Passe à V4 Pro quand la tâche justifie vraiment le modèle plus grand.
Conclusion
DeepSeek V4 est réel maintenant. Le point sensible, c'est prix et migration.
L'ancienne version répondait à une question qui n'est plus ouverte. DeepSeek V4 Preview est disponible. Les docs officiels donnent maintenant les noms de modèles, la longueur de contexte, les formats API, les fonctions, les prix, les poids ouverts et une date limite pour les anciens noms.
La plus grosse mise à jour pratique est le prix. V4 Flash est très bon marché en sortie, et V4 Pro est temporairement remisé. Les vieux comparatifs de coût deviennent donc vite faux. Pour la production, utilise la page de prix actuelle de DeepSeek, pas un nombre copié d'un ancien article.
Mon avis pratique : utilise V4 Flash comme candidat par défaut pour les agents sensibles au coût et le long contexte. Teste V4 Pro seulement quand la tâche le justifie. Et si tu utilises encore deepseek-chat ou deepseek-reasoner, migre avant le 24 juillet 2026.
Pour choisir entre plus de modèles, lis notre comparatif Claude Opus 4.7 vs GPT-5.2 vs Gemini 3.1 Pro vs DeepSeek V4. Si le prix est la question principale, passe ton usage dans le calculateur de coût IA.
Continuer la lecture
Besoin de choisir un modèle d'IA ?
Utilise notre AI Model Picker gratuit pour comparer les modèles par usage, budget et workflow.
Essayer l'AI Model Picker


