Version courte : vérifié le 10 mai 2026 : si tu veux un default, commence par la tâche, pas par la marque. Claude Opus 4.7 est le choix le plus sûr pour code difficile et travail professionnel long. GPT-5.2 est le point de comparaison officiel actuel d'OpenAI, pas GPT-5.5. Gemini 3.1 Pro est fort quand recherche, multimodal et long contexte comptent. DeepSeek V4 Flash est le default par coût pour l'API avec contexte 1M, tandis que V4 Pro mérite un test sur les tâches plus dures pendant sa remise temporaire.
- Anthropic dit que Claude Opus 4.7 est sorti le 16 avril 2026 et garde le prix d'Opus 4.6 : $5 input et $25 output par 1M tokens
- La page officielle OpenAI liste GPT-5.2 à $1.75 input, $0.175 cached input et $14 output par 1M tokens
- La page officielle OpenAI ne liste pas GPT-5.5 dans cette mise à jour
- Google liste Gemini 3.1 Pro Preview à $2/$12 par 1M tokens jusqu'à 200K de prompt, et $4/$18 au-delà
- La page modèle Google liste 1M tokens d'entrée, 64K tokens de sortie et de bons résultats GPQA, BrowseComp, SWE-Bench et Terminal-Bench
- DeepSeek V4 Flash est listé à $0.14 input cache-miss et $0.28 output par 1M tokens
- DeepSeek V4 Pro a 75% de remise jusqu'au 31 mai 2026 : $0.435 input cache-miss et $0.87 output par 1M tokens
- DeepSeek dit que deepseek-chat et deepseek-reasoner seront retirés après le 24 juillet 2026 à 15:59 UTC
Cette page garde l'ancien slug parce que Google connaît déjà cette URL. Le contenu, lui, devait être corrigé : la page publique actuelle d'OpenAI ne liste pas GPT-5.5, donc cette mise à jour utilise GPT-5.2.
J'ai vérifié les pages officielles d'Anthropic, OpenAI, Google et DeepSeek. Quand un fournisseur publie des benchmarks, je les traite comme des claims fournisseur, pas comme une preuve indépendante. Le but n'est pas de nommer un gagnant universel. Le but est de dire quel modèle tester en premier pour le travail en face de toi.
Réponse courte
Choisis selon le workload, pas selon la marque.
Meilleur modèle par usage
| Usage | Premier modèle à tester | Raison |
|---|---|---|
| Code difficile et travail logiciel soutenu | Claude Opus 4.7 | Anthropic le positionne comme un Opus plus fort pour code, agents et tâches professionnelles |
| Écosystème OpenAI ou workflows Codex | GPT-5.2 ou GPT-5.2 Codex | La page officielle OpenAI liste GPT-5.2 et GPT-5.2 Codex, pas GPT-5.5 |
| Recherche, raisonnement multimodal et outils Google | Gemini 3.1 Pro | Google liste GPQA, BrowseComp, SWE-Bench et support 1M contexte |
| API 1M contexte au plus bas coût | DeepSeek V4 Flash | Le prix officiel DeepSeek est bien plus bas que les flagships occidentaux |
| Expériences avec poids DeepSeek ouverts | DeepSeek V4 Pro ou Flash | DeepSeek renvoie vers les poids ouverts depuis la note V4 officielle |
Pourquoi cet article utilise GPT-5.2, pas GPT-5.5
L'ancienne version allait trop loin sur un nom que la page officielle ne liste pas.
La version précédente parlait de prix et de benchmarks GPT-5.5 comme si tout était officiel. Ce n'est plus prudent. La page officielle de prix OpenAI liste GPT-5.2, GPT-5.1, GPT-5, GPT-5.2 Codex, GPT-5.1 Codex et des modèles liés. Elle ne liste pas GPT-5.5.
Correction faite
L'URL contient encore gpt-5-5, mais l'article utilise GPT-5.2 comme référence OpenAI officielle actuelle. Cela évite de publier des prix GPT-5.5 non supportés tout en gardant l'URL existante.
Besoin d'aide pour implémenter ceci ?
Plus de 50 implémentations · 60 % plus rapide · 2-4 semaines
Prix actuels
Pages publiques officielles, vérifiées le 10 mai 2026.
Prix API par 1M tokens
| Modèle | Input | Input cache | Output | Notes |
|---|---|---|---|---|
| Claude Opus 4.7 | $5.00 | Non listé dans l'annonce | $25.00 | Anthropic dit : même prix qu'Opus 4.6 |
| GPT-5.2 | $1.75 | $0.175 | $14.00 | Page officielle OpenAI |
| GPT-5.2 Pro | $21.00 | - | $168.00 | Tier Pro premium OpenAI |
| Gemini 3.1 Pro Preview, <=200K prompt | $2.00 | $0.20 context cache | $12.00 | Prix standard Gemini API |
| Gemini 3.1 Pro Preview, >200K prompt | $4.00 | $0.40 context cache | $18.00 | Prix standard Gemini API |
| DeepSeek V4 Flash | $0.0028 cache hit / $0.14 cache miss | - | $0.28 | Prix officiel DeepSeek |
| DeepSeek V4 Pro remisé | $0.003625 cache hit / $0.435 cache miss | - | $0.87 | 75% de remise jusqu'au 31 mai 2026 |
Pour le coût API pur, DeepSeek V4 Flash gagne largement. Parmi les modèles frontier hébergés classiques, GPT-5.2 est moins cher qu'Opus 4.7 au prix de liste. Gemini 3.1 Pro devient plus cher quand les prompts dépassent 200K tokens, mais il apporte le stack Google, 1M d'entrée et de bons claims officiels.
Claims de benchmarks
Utiles, mais reportés par les fournisseurs.
Forces listées officiellement
| Modèle | Forces reportées | Attention |
|---|---|---|
| Claude Opus 4.7 | Anthropic parle de gains en code, vision, tâches multi-step, suivi d'instructions et travail professionnel | Tester la migration de prompts, car un suivi d'instructions plus strict peut changer le comportement |
| GPT-5.2 | La page de prix OpenAI confirme la disponibilité publique actuelle et les variantes Codex | Ne pas reprendre d'anciens claims GPT-5.5 |
| Gemini 3.1 Pro | Google liste GPQA Diamond 94.3%, SWE-Bench Verified 80.6%, Terminal-Bench 68.5%, BrowseComp 85.9% | Modèle Preview : comportement et prix peuvent changer |
| DeepSeek V4 Pro | DeepSeek dit que V4 Pro mène les modèles ouverts actuels en connaissance générale et les bat en Math/STEM/Coding | Les tableaux détaillés en texte sont limités sur la page officielle |
| DeepSeek V4 Flash | DeepSeek dit que Flash se rapproche de V4 Pro en raisonnement et l'égale sur des tâches agents simples | Tester sur tes tâches avant de remplacer un modèle plus cher |
Code et agents
Claude pour le code dur, DeepSeek pour les workers peu chers, GPT-5.2 pour OpenAI.
Pour du code difficile, je commencerais par Claude Opus 4.7 si le budget suit. Le lancement d'Anthropic vise clairement l'ingénierie logicielle avancée, les tâches longues, le meilleur suivi d'instructions et le travail professionnel. Pour de grands codebases, c'est le premier test premium le plus sûr.
Si ton workflow vit déjà dans l'outillage OpenAI, utilise GPT-5.2 ou GPT-5.2 Codex comme référence officielle actuelle. Les anciens claims GPT-5.5 ne devraient pas guider un achat ou un routing tant qu'OpenAI ne publie pas ce modèle dans ses docs.
Si tu construis un système de routing, DeepSeek V4 Flash est le worker peu cher évident. Utilise-le pour les tâches d'implémentation, l'extraction long contexte et les appels agents à haut volume. Monte vers DeepSeek V4 Pro ou un flagship occidental quand la tâche demande plus de planification, de jugement ou de fiabilité.
Recherche et long contexte
Gemini et DeepSeek comptent tous les deux, mais pas pour la même raison.
Gemini 3.1 Pro a le profil officiel le plus fort pour la recherche dans ce groupe : Google liste 94.3% sur GPQA Diamond, 85.9% sur BrowseComp avec recherche et Python, 1M tokens d'entrée et 64K tokens de sortie. C'est un bon premier test pour recherche, multimodal et workloads intégrés à Google.
DeepSeek V4 est l'exception côté coût sur le long contexte. Si ton workload est surtout "lire beaucoup, extraire, résumer, transformer", V4 Flash mérite le premier benchmark, car l'écart de prix peut changer l'économie du produit.
Sources officielles vérifiées
Sources primaires pour la mise à jour factuelle.
- Anthropic: Introducing Claude Opus 4.7
- Anthropic: Claude Opus 4.7 model page
- OpenAI API pricing
- Google DeepMind: Gemini 3.1 Pro
- Google Gemini API pricing
- DeepSeek V4 Preview Release
- DeepSeek Models & Pricing
Conclusion
Il n'y a pas de gagnant universel.
Si tu veux une règle simple : Claude Opus 4.7 pour code dur et travail professionnel, GPT-5.2 pour workflows OpenAI actuels, Gemini 3.1 Pro pour recherche et multimodal long contexte, DeepSeek V4 Flash pour volume API 1M contexte à bas coût.
L'ancien angle GPT-5.5 était le principal risque de ce post. C'est corrigé. Pour les détails de migration DeepSeek, lis le guide DeepSeek V4. Pour choisir un workflow plus large, utilise l'AI Model Picker. Pour comparer les dépenses mensuelles entre modèles, utilise le calculateur de coût IA.
Continuer la lecture
Stay ahead of the AI curve
We test new AI tools every week and share honest results. Join our newsletter.