Resumen rápido: la versión anterior estaba desactualizada. DeepSeek V4 ya salió, y Qwen3-Max-Thinking ya no es solo un rumor de benchmark. Comprobado el 10 de mayo de 2026: DeepSeek V4 Flash es la primera prueba lógica para API barata con contexto de 1M. DeepSeek V4 Pro es la opción fuerte dentro de DeepSeek, pero su descuento termina el 31 de mayo de 2026. Qwen3-Max-Thinking encaja mejor si ya trabajas en Alibaba Cloud Model Studio, necesitas el stack de tool-use de Qwen o quieres su perfil oficial de benchmarks de razonamiento.
- DeepSeek-V4 Preview salió el 24 de abril de 2026 con V4 Pro y V4 Flash
- DeepSeek V4 soporta 1M de contexto, API formato OpenAI, API formato Anthropic y pesos abiertos
- DeepSeek V4 Flash aparece a $0.14 entrada sin caché y $0.28 salida por 1M tokens
- DeepSeek V4 Pro tiene descuento del 75% hasta el 31 de mayo de 2026: $0.435 entrada sin caché y $0.87 salida por 1M tokens
- Alibaba Cloud lista qwen3-max-2026-01-23 como snapshot thinking-mode de Qwen3-Max
- Qwen3-Max soporta 262,144 tokens de contexto, 81,920 tokens máximos de chain-of-thought y 32,768 tokens máximos de salida
- El precio Global de Alibaba Cloud para qwen3-max empieza en $0.359 input y $1.434 output por 1M tokens hasta 32K tokens
- El blog oficial de Qwen reporta 85.9 en LiveCodeBench v6, 75.3 en SWE Verified y 49.8 en HLE with tools
Esto antes era una comparación de DeepSeek V3 contra Qwen. Ese marco ya no sirve. DeepSeek V4 está live y la comparación útil ahora es DeepSeek V4 Flash/Pro contra Qwen3-Max-Thinking.
Esta actualización usa los docs oficiales de DeepSeek, la nota oficial de V4, el blog oficial de Qwen3-Max-Thinking y la documentación de Alibaba Cloud Model Studio. No uso mirrors antiguos de benchmarks como fuente principal.
Respuesta corta
La elección en lenguaje simple.
Elige DeepSeek V4 Flash si coste y contexto de 1M son lo más importante. Elige DeepSeek V4 Pro si quieres el modelo DeepSeek más fuerte para razonamiento, agentic coding o conocimiento general, y aceptas que el precio actual tiene descuento temporal. Elige Qwen3-Max-Thinking si estás construyendo en Alibaba Cloud Model Studio, necesitas el camino de tool-use de Qwen o quieres su perfil oficial de benchmarks frente a GPT-5.2-Thinking, Claude Opus 4.5, Gemini 3 Pro y DeepSeek V3.2.
Recomendación rápida
| Necesidad | Elige | Por qué |
|---|---|---|
| Default barato con contexto largo | DeepSeek V4 Flash | Menor coste oficial listado y 1M de contexto |
| Razonamiento o coding más difícil dentro de DeepSeek | DeepSeek V4 Pro | DeepSeek lo posiciona como el modelo insignia de V4 |
| Workflow Alibaba Cloud / Model Studio | Qwen3-Max-Thinking | Soporte nativo Qwen/Alibaba, tool calling y precios por tiers |
| Experimentar con pesos abiertos | DeepSeek V4 | DeepSeek enlaza pesos abiertos desde la nota oficial |
| Perfil de benchmarks de razonamiento Qwen | Qwen3-Max-Thinking | Qwen reporta resultados fuertes en LiveCodeBench, HLE with tools y Arena-Hard v2 |
Estado actual
Qué está disponible de verdad.
Estado de lanzamiento y API
| Elemento | DeepSeek V4 | Qwen3-Max-Thinking |
|---|---|---|
| Estado | DeepSeek-V4 Preview live desde el 24 de abril de 2026 | Qwen3-Max-Thinking anunciado por Qwen el 25 de enero de 2026 |
| Nombres de API | deepseek-v4-flash, deepseek-v4-pro | qwen3-max y qwen3-max-2026-01-23 en Alibaba Cloud docs |
| Contexto | 1M | 262,144 tokens |
| Salida máxima | 384K listado por DeepSeek | 32,768 tokens de salida en modo thinking |
| Tool use | Tool calls soportados | Alibaba docs listan soporte de tool calling |
| Pesos | Pesos abiertos enlazados por DeepSeek | No asumas pesos abiertos estilo DeepSeek solo por disponibilidad API |
Source: DeepSeek API Docs, blog de Qwen, Alibaba Cloud Model Studio
¿DeepSeek, Qwen, Claude o GPT? Encuentra el modelo que encaja con tu caso en 60 segundos.
Más de 50 implementaciones · 60% más rápido · 2-4 semanas
El artículo viejo quedó mal después del 24 de abril
Cualquier texto pre-release sobre DeepSeek V4 ya está desactualizado. La propia nota de DeepSeek dice que V4 Preview está live, es open-sourced y está disponible por API.
Precios
DeepSeek es más barato, pero mira la fecha del descuento de Pro.
DeepSeek y Alibaba no cobran igual. DeepSeek separa entrada con caché y sin caché. Alibaba Cloud lista Qwen3-Max por modo de despliegue y tamaño del request. Aquí uso el precio Global de Alibaba Cloud porque es el modo público más relevante fuera de China.
Snapshot oficial de precios, 10 de mayo de 2026
| Modelo | Precio input | Precio output | Notas |
|---|---|---|---|
| DeepSeek V4 Flash | $0.0028 caché hit / $0.14 caché miss por 1M tokens | $0.28 por 1M tokens | 1M contexto |
| DeepSeek V4 Pro | $0.003625 caché hit / $0.435 caché miss por 1M tokens | $0.87 por 1M tokens | 75% descuento hasta el 31 de mayo de 2026; output de lista $3.48 |
| Qwen3-Max Global, <=32K input | $0.359 por 1M tokens | $1.434 por 1M tokens | Precio Global por tiers de Alibaba Cloud |
| Qwen3-Max Global, 32K-128K input | $0.574 por 1M tokens | $2.294 por 1M tokens | Tier más alto para requests largos |
| Qwen3-Max Global, 128K-252K input | $1.004 por 1M tokens | $4.014 por 1M tokens | Tier Global más alto listado en la fuente |
Source: DeepSeek Models & Pricing; Alibaba Cloud Model Studio pricing
La lectura práctica: DeepSeek V4 Flash es el default barato. Qwen3-Max no es un modelo de ganga cuando usas entradas largas. Puede seguir siendo la mejor opción si necesitas el ecosistema de Qwen, su camino de herramientas o su perfil de benchmarks.
Benchmarks
Claims de proveedor, no prueba independiente.
Qwen publica más detalle textual de benchmarks para Qwen3-Max-Thinking que DeepSeek para V4. DeepSeek hace claims fuertes, pero muchas tablas detalladas están en imágenes. La comparación justa no es "quién gana todo". Es qué afirma cada proveedor y qué se puede usar sin inventar.
Claims oficiales de benchmarks y capacidades
| Área | DeepSeek V4 | Qwen3-Max-Thinking |
|---|---|---|
| Agentic coding | DeepSeek dice que V4 Pro es open-source SOTA en benchmarks de agentic coding | Qwen reporta 75.3 en SWE Verified |
| Competitive coding | DeepSeek dice que V4 Pro supera a modelos abiertos actuales en coding | Qwen reporta 85.9 en LiveCodeBench v6 |
| Ciencia / razonamiento | DeepSeek dice que V4 Pro supera a modelos abiertos actuales en Math, STEM y coding | Qwen reporta 87.4 en GPQA y 98.0 en HMMT Feb 25 |
| Agentic search | DeepSeek se centra en integración de agentes y 1M de contexto | Qwen reporta 49.8 en HLE with tools |
| Routing sensible al coste | V4 Flash es la primera prueba clara | Qwen gana cuando importa más el stack Alibaba/Qwen que el coste puro |
Source: Nota V4 de DeepSeek; blog oficial Qwen3-Max-Thinking
No leas de más los benchmarks de proveedor
Son claims de los propios proveedores. Sirven para orientar, pero no reemplazan probar tus prompts, tu código, tus límites de latencia y tu perfil de costes.
Qué modelo elegir
El modelo tiene que seguir al trabajo.
Tabla de decisión
| Workload | Primera prueba | Por qué |
|---|---|---|
| Procesamiento de documentos largos | DeepSeek V4 Flash | 1M de contexto y output barato |
| Agentes de alto volumen | DeepSeek V4 Flash | Más barato que Qwen según precios oficiales |
| Experimentos open-weight con razonamiento difícil | DeepSeek V4 Pro | Modelo insignia DeepSeek V4 con pesos enlazados |
| Stack de producción Alibaba Cloud | Qwen3-Max-Thinking | Soporte nativo Model Studio y docs de precios |
| Razonamiento con herramientas dentro de Qwen | Qwen3-Max-Thinking | Qwen describe adaptive tool use y Model Studio lista tool calling |
| Coste estable después del 31 de mayo | Revisar antes de elegir | El descuento de V4 Pro es temporal; V4 Flash es más estable en los docs |
Si tuviera que elegir un default para la mayoría de equipos, empezaría con DeepSeek V4 Flash. Es lo bastante barato para probarlo en serio, soporta contexto largo y simplifica la migración. Probaría Qwen3-Max-Thinking cuando la app ya depende de Alibaba Cloud o cuando las fortalezas concretas de Qwen encajan con el workload.
Fuentes oficiales revisadas
No usé mirrors viejos de benchmarks V3.
- DeepSeek V4 Preview Release
- DeepSeek Models & Pricing
- DeepSeek API Change Log
- Qwen: blog oficial Qwen3-Max-Thinking
- Modelos soportados en Alibaba Cloud Model Studio
- Precios de Alibaba Cloud Model Studio
Conclusión
DeepSeek es el default por coste. Qwen es la elección de ecosistema.
El titular viejo era demasiado amplio. Los modelos chinos no están "venciendo a GPT" en todo, y una página seria no debería vender una conclusión así por un benchmark. La actualización útil es más estrecha: DeepSeek V4 ya está live y debe probarse primero cuando necesitas trabajo de API barato con 1M de contexto. Qwen3-Max-Thinking encaja mejor cuando tu despliegue, tus herramientas o tu evaluación ya viven en Alibaba/Qwen.
Para los detalles solo de DeepSeek, lee la guía de lanzamiento y precios de DeepSeek V4. Para elegir entre modelos cerrados y abiertos, usa el AI Model Picker. Si lo que más te importa es el gasto mensual, compara tu uso en la calculadora de costes de IA.
Sigue leyendo
¿Necesitas elegir el modelo correcto?
Compara modelos por caso de uso, coste, contexto y encaje con tu flujo de trabajo.
Probar el AI Model Picker


