El laboratorio chino presenta dos variantes con tecnología Sparse Attention y pesos abiertos en Hugging Face, capaces de competir con Claude Opus 4.6 y GPT-5.4.
El laboratorio de inteligencia artificial DeepSeek, con sede en Hangzhou (China), ha lanzado el 24 de abril de 2026 la vista previa de su serie V4, dos nuevos modelos de código abierto con una ventana de contexto de un millón de tokens de forma predeterminada. La publicación confirma meses de especulación tras los aplazamientos de febrero y marzo, y sitúa a DeepSeek como el principal referente del ecosistema de IA de pesos abiertos frente a los modelos propietarios de OpenAI, Google y Anthropic.
¿Qué es DeepSeek V4 y cuáles son sus dos variantes?
La serie V4 se presenta en dos configuraciones basadas en la arquitectura Mixture-of-Experts (MoE), que permite activar solo una fracción de los parámetros del modelo en cada inferencia, reduciendo drásticamente el coste computacional sin sacrificar rendimiento.
DeepSeek-V4-Pro cuenta con 1,6 billones de parámetros totales y 49.000 millones de parámetros activos por token, una cifra comparable a los modelos de frontera más potentes del mercado. DeepSeek-V4-Flash, la variante ligera, opera con 284.000 millones de parámetros totales y 13.000 millones activos, pensada para flujos de trabajo de bajo coste donde la velocidad y la economía de inferencia priman sobre la profundidad analítica.
Ambas variantes incorporan como estándar una ventana de contexto de un millón de tokens, algo que hasta ahora solo ofrecían modelos premium como Gemini 1.5 Pro de Google. Que DeepSeek lo establezca como valor por defecto —y no como opción adicional de pago— representa un cambio de paradigma en la accesibilidad de los modelos de IA de gran contexto.
La innovación técnica central: Sparse Attention y compresión de tokens
La novedad estructural más relevante de V4 es un nuevo esquema de atención que combina compresión a nivel de token con la denominada Sparse Attention (Atención Dispersa), desarrollada internamente por el equipo de DeepSeek. Este mecanismo permite que el modelo no procese con la misma intensidad computacional todos los tokens del contexto, sino que distribuya el esfuerzo de forma selectiva según la relevancia de cada fragmento de entrada.
El equipo de investigación atribuye a este sistema la reducción sustancial de los costes de memoria y computación asociados a contextos largos. En términos prácticos, esto significa que una solicitud de un millón de tokens —equivalente a varios libros completos o meses de registros de conversaciones— puede procesarse de forma eficiente sin multiplicar exponencialmente el coste de la inferencia.
Según los benchmarks publicados por el propio laboratorio, V4-Pro obtiene una calificación de 3.206 puntos en Codeforces, plataforma de referencia internacional para evaluar la capacidad de resolución de problemas algorítmicos. El equipo afirma que V4-Pro es el modelo de código abierto con mayor rendimiento en codificación de agentes, y que solo Gemini 3.1 Pro de Google lo supera en conocimiento del mundo entre los modelos de frontera actuales.
Rendimiento comparado: V4-Pro frente a los modelos propietarios de referencia
Las pruebas publicadas junto al lanzamiento sitúan a V4-Pro prácticamente a la par con Claude Opus 4.6 de Anthropic, GPT-5.4 xHigh de OpenAI y Gemini 3.1 Pro de Google en tareas de conocimiento, razonamiento complejo y flujos de trabajo de agentes autónomos. Flash, por su parte, iguala a Pro en flujos de trabajo de agentes más sencillos a un coste de inferencia considerablemente menor, lo que lo convierte en candidato natural para despliegues en producción donde la relación coste-rendimiento es determinante.
Ambos modelos ofrecen a través de la API modos de procesamiento con y sin razonamiento profundo, controlados mediante un parámetro reasoning_effort que permite a los desarrolladores calibrar la intensidad del análisis del modelo en función de cada tarea concreta.
Integración en pilas de agentes y compatibilidad con Claude Code y OpenAI
DeepSeek ha optimizado V4 para su integración directa en entornos de desarrollo ya existentes. La API acepta tanto el formato de llamadas de OpenAI como el formato de Anthropic, lo que significa que los equipos de ingeniería solo necesitan modificar el nombre del modelo en su configuración para migrar a V4. Esta decisión de diseño no es neutral: elimina la fricción técnica que habitualmente frena la adopción de nuevos modelos y amplía el ecosistema de usuarios potenciales de forma inmediata.
V4 ha sido validado específicamente para su uso en herramientas como Claude Code de Anthropic, OpenClaw y OpenCode. Los endpoints anteriores deepseek-chat y deepseek-reasoner pasan a denominarse V4-Flash y serán dados de baja el 24 de julio de 2026.
Pesos abiertos en Hugging Face y la estrategia geopolítica detrás del lanzamiento
Los pesos de ambos modelos están disponibles en Hugging Face bajo una licencia abierta, continuando la estrategia que convirtió a DeepSeek V3 y R1 en referentes del sector. La apertura de los pesos permite que cualquier organización, universidad o empresa descargue, ajuste y despliegue los modelos en su propia infraestructura, sin depender de la API centralizada del laboratorio.
Este movimiento tiene una dimensión geopolítica que no debe pasarse por alto. Ante la presión creciente de competidores chinos como Alibaba, Xiaomi con su modelo MiMo y Moonshot con Kimi, DeepSeek posiciona V4 no como una respuesta a los líderes de la industria occidental, sino como el laboratorio que define por sí mismo el límite de lo que los modelos de pesos abiertos pueden alcanzar. La optimización de V4 para hardware Huawei Ascend subraya además el impulso hacia una plataforma de computación de IA nativamente china, independiente de las restricciones de exportación de semiconductores impuestas por Estados Unidos.
Lo que viene: consecuencias para el ecosistema global de la IA
El lanzamiento de V4 plantea preguntas de alcance estratégico para las empresas y gobiernos europeos que están evaluando su política de IA. Un modelo de código abierto con rendimiento equivalente al de los sistemas propietarios más avanzados cambia radicalmente la ecuación del despliegue: elimina la dependencia de proveedores y reduce los costes operativos, pero también traslada la responsabilidad del control de uso y la seguridad al despliegue de cada organización.
En el plano competitivo, la presión sobre OpenAI, Anthropic y Google se intensifica. Mantener una ventaja diferencial cuando un competidor con pesos abiertos alcanza paridad de rendimiento exige innovar a un ritmo que el modelo de negocio propietario no siempre puede sostener.
La opinión de El Vértice
El lanzamiento de DeepSeek V4 merece una lectura más allá de los titulares técnicos. China ha demostrado, por segunda vez en menos de un año, que es capaz de desarrollar inteligencia artificial de vanguardia con recursos computacionales más modestos que sus competidores occidentales, y de ponerla a disposición global de forma abierta. Eso es estrategia industrial, no altruismo tecnológico.
Europa, mientras debate regulaciones y armoniza directivas, asiste como espectadora a una carrera en la que los dos corredores principales —Estados Unidos y China— se distancian a cada vuelta. La pregunta que ningún gobierno europeo ha respondido con claridad sigue en pie: ¿cuándo dejamos de regular la IA que otros producen y empezamos a producir la IA que queremos regular?

