Inteligencia artificial

DeepSeek V4 vs Qwen3 Max Thinking: cuál usar en 2026

|
11 de noviembre de 2025
|
9 min de lectura
DeepSeek V4 vs Qwen3 Max Thinking: cuál usar en 2026 - Featured Image

Get weekly AI tool reviews

We test tools so you don't have to. No spam.

Resumen rápido: la versión anterior estaba desactualizada. DeepSeek V4 ya salió, y Qwen3-Max-Thinking ya no es solo un rumor de benchmark. Comprobado el 10 de mayo de 2026: DeepSeek V4 Flash es la primera prueba lógica para API barata con contexto de 1M. DeepSeek V4 Pro es la opción fuerte dentro de DeepSeek, pero su descuento termina el 31 de mayo de 2026. Qwen3-Max-Thinking encaja mejor si ya trabajas en Alibaba Cloud Model Studio, necesitas el stack de tool-use de Qwen o quieres su perfil oficial de benchmarks de razonamiento.

DeepSeek V4 vs Qwen3-Max-Thinking
Updated 10 de mayo de 2026
  • DeepSeek-V4 Preview salió el 24 de abril de 2026 con V4 Pro y V4 Flash
  • DeepSeek V4 soporta 1M de contexto, API formato OpenAI, API formato Anthropic y pesos abiertos
  • DeepSeek V4 Flash aparece a $0.14 entrada sin caché y $0.28 salida por 1M tokens
  • DeepSeek V4 Pro tiene descuento del 75% hasta el 31 de mayo de 2026: $0.435 entrada sin caché y $0.87 salida por 1M tokens
  • Alibaba Cloud lista qwen3-max-2026-01-23 como snapshot thinking-mode de Qwen3-Max
  • Qwen3-Max soporta 262,144 tokens de contexto, 81,920 tokens máximos de chain-of-thought y 32,768 tokens máximos de salida
  • El precio Global de Alibaba Cloud para qwen3-max empieza en $0.359 input y $1.434 output por 1M tokens hasta 32K tokens
  • El blog oficial de Qwen reporta 85.9 en LiveCodeBench v6, 75.3 en SWE Verified y 49.8 en HLE with tools

Esto antes era una comparación de DeepSeek V3 contra Qwen. Ese marco ya no sirve. DeepSeek V4 está live y la comparación útil ahora es DeepSeek V4 Flash/Pro contra Qwen3-Max-Thinking.

Esta actualización usa los docs oficiales de DeepSeek, la nota oficial de V4, el blog oficial de Qwen3-Max-Thinking y la documentación de Alibaba Cloud Model Studio. No uso mirrors antiguos de benchmarks como fuente principal.

contexto DeepSeek V4
1M
contexto Qwen3-Max
262K
salida V4 Flash
$0.28
por 1M tokens
Qwen LCB v6
85.9
claim oficial

Respuesta corta

La elección en lenguaje simple.

Elige DeepSeek V4 Flash si coste y contexto de 1M son lo más importante. Elige DeepSeek V4 Pro si quieres el modelo DeepSeek más fuerte para razonamiento, agentic coding o conocimiento general, y aceptas que el precio actual tiene descuento temporal. Elige Qwen3-Max-Thinking si estás construyendo en Alibaba Cloud Model Studio, necesitas el camino de tool-use de Qwen o quieres su perfil oficial de benchmarks frente a GPT-5.2-Thinking, Claude Opus 4.5, Gemini 3 Pro y DeepSeek V3.2.

Recomendación rápida

NecesidadEligePor qué
Default barato con contexto largoDeepSeek V4 FlashMenor coste oficial listado y 1M de contexto
Razonamiento o coding más difícil dentro de DeepSeekDeepSeek V4 ProDeepSeek lo posiciona como el modelo insignia de V4
Workflow Alibaba Cloud / Model StudioQwen3-Max-ThinkingSoporte nativo Qwen/Alibaba, tool calling y precios por tiers
Experimentar con pesos abiertosDeepSeek V4DeepSeek enlaza pesos abiertos desde la nota oficial
Perfil de benchmarks de razonamiento QwenQwen3-Max-ThinkingQwen reporta resultados fuertes en LiveCodeBench, HLE with tools y Arena-Hard v2

Estado actual

Qué está disponible de verdad.

Estado de lanzamiento y API

ElementoDeepSeek V4Qwen3-Max-Thinking
EstadoDeepSeek-V4 Preview live desde el 24 de abril de 2026Qwen3-Max-Thinking anunciado por Qwen el 25 de enero de 2026
Nombres de APIdeepseek-v4-flash, deepseek-v4-proqwen3-max y qwen3-max-2026-01-23 en Alibaba Cloud docs
Contexto1M262,144 tokens
Salida máxima384K listado por DeepSeek32,768 tokens de salida en modo thinking
Tool useTool calls soportadosAlibaba docs listan soporte de tool calling
PesosPesos abiertos enlazados por DeepSeekNo asumas pesos abiertos estilo DeepSeek solo por disponibilidad API

Source: DeepSeek API Docs, blog de Qwen, Alibaba Cloud Model Studio

¿DeepSeek, Qwen, Claude o GPT? Encuentra el modelo que encaja con tu caso en 60 segundos.

Más de 50 implementaciones · 60% más rápido · 2-4 semanas

El artículo viejo quedó mal después del 24 de abril

Cualquier texto pre-release sobre DeepSeek V4 ya está desactualizado. La propia nota de DeepSeek dice que V4 Preview está live, es open-sourced y está disponible por API.

Precios

DeepSeek es más barato, pero mira la fecha del descuento de Pro.

DeepSeek y Alibaba no cobran igual. DeepSeek separa entrada con caché y sin caché. Alibaba Cloud lista Qwen3-Max por modo de despliegue y tamaño del request. Aquí uso el precio Global de Alibaba Cloud porque es el modo público más relevante fuera de China.

Snapshot oficial de precios, 10 de mayo de 2026

ModeloPrecio inputPrecio outputNotas
DeepSeek V4 Flash$0.0028 caché hit / $0.14 caché miss por 1M tokens$0.28 por 1M tokens1M contexto
DeepSeek V4 Pro$0.003625 caché hit / $0.435 caché miss por 1M tokens$0.87 por 1M tokens75% descuento hasta el 31 de mayo de 2026; output de lista $3.48
Qwen3-Max Global, <=32K input$0.359 por 1M tokens$1.434 por 1M tokensPrecio Global por tiers de Alibaba Cloud
Qwen3-Max Global, 32K-128K input$0.574 por 1M tokens$2.294 por 1M tokensTier más alto para requests largos
Qwen3-Max Global, 128K-252K input$1.004 por 1M tokens$4.014 por 1M tokensTier Global más alto listado en la fuente

Source: DeepSeek Models & Pricing; Alibaba Cloud Model Studio pricing

La lectura práctica: DeepSeek V4 Flash es el default barato. Qwen3-Max no es un modelo de ganga cuando usas entradas largas. Puede seguir siendo la mejor opción si necesitas el ecosistema de Qwen, su camino de herramientas o su perfil de benchmarks.

Benchmarks

Claims de proveedor, no prueba independiente.

Qwen publica más detalle textual de benchmarks para Qwen3-Max-Thinking que DeepSeek para V4. DeepSeek hace claims fuertes, pero muchas tablas detalladas están en imágenes. La comparación justa no es "quién gana todo". Es qué afirma cada proveedor y qué se puede usar sin inventar.

Claims oficiales de benchmarks y capacidades

ÁreaDeepSeek V4Qwen3-Max-Thinking
Agentic codingDeepSeek dice que V4 Pro es open-source SOTA en benchmarks de agentic codingQwen reporta 75.3 en SWE Verified
Competitive codingDeepSeek dice que V4 Pro supera a modelos abiertos actuales en codingQwen reporta 85.9 en LiveCodeBench v6
Ciencia / razonamientoDeepSeek dice que V4 Pro supera a modelos abiertos actuales en Math, STEM y codingQwen reporta 87.4 en GPQA y 98.0 en HMMT Feb 25
Agentic searchDeepSeek se centra en integración de agentes y 1M de contextoQwen reporta 49.8 en HLE with tools
Routing sensible al costeV4 Flash es la primera prueba claraQwen gana cuando importa más el stack Alibaba/Qwen que el coste puro

Source: Nota V4 de DeepSeek; blog oficial Qwen3-Max-Thinking

No leas de más los benchmarks de proveedor

Son claims de los propios proveedores. Sirven para orientar, pero no reemplazan probar tus prompts, tu código, tus límites de latencia y tu perfil de costes.

Qué modelo elegir

El modelo tiene que seguir al trabajo.

Tabla de decisión

WorkloadPrimera pruebaPor qué
Procesamiento de documentos largosDeepSeek V4 Flash1M de contexto y output barato
Agentes de alto volumenDeepSeek V4 FlashMás barato que Qwen según precios oficiales
Experimentos open-weight con razonamiento difícilDeepSeek V4 ProModelo insignia DeepSeek V4 con pesos enlazados
Stack de producción Alibaba CloudQwen3-Max-ThinkingSoporte nativo Model Studio y docs de precios
Razonamiento con herramientas dentro de QwenQwen3-Max-ThinkingQwen describe adaptive tool use y Model Studio lista tool calling
Coste estable después del 31 de mayoRevisar antes de elegirEl descuento de V4 Pro es temporal; V4 Flash es más estable en los docs

Si tuviera que elegir un default para la mayoría de equipos, empezaría con DeepSeek V4 Flash. Es lo bastante barato para probarlo en serio, soporta contexto largo y simplifica la migración. Probaría Qwen3-Max-Thinking cuando la app ya depende de Alibaba Cloud o cuando las fortalezas concretas de Qwen encajan con el workload.

Fuentes oficiales revisadas

No usé mirrors viejos de benchmarks V3.

Conclusión

DeepSeek es el default por coste. Qwen es la elección de ecosistema.

El titular viejo era demasiado amplio. Los modelos chinos no están "venciendo a GPT" en todo, y una página seria no debería vender una conclusión así por un benchmark. La actualización útil es más estrecha: DeepSeek V4 ya está live y debe probarse primero cuando necesitas trabajo de API barato con 1M de contexto. Qwen3-Max-Thinking encaja mejor cuando tu despliegue, tus herramientas o tu evaluación ya viven en Alibaba/Qwen.

Para los detalles solo de DeepSeek, lee la guía de lanzamiento y precios de DeepSeek V4. Para elegir entre modelos cerrados y abiertos, usa el AI Model Picker. Si lo que más te importa es el gasto mensual, compara tu uso en la calculadora de costes de IA.

¿Necesitas elegir el modelo correcto?

Compara modelos por caso de uso, coste, contexto y encaje con tu flujo de trabajo.

Probar el AI Model Picker