DeepSeek-V3.2: el modelo chino que quiere competir con GPT-5 y Gemini-3 Pro
La empresa china DeepSeek ha presentado DeepSeek-V3.2 y su variante V3.2-Speciale, dos modelos de IA abierta que buscan situarse en la gama alta del razonamiento avanzado, midiéndose con sistemas como GPT-5 y Gemini-3 Pro.
Según la compañía, sus nuevas arquitecturas de razonamiento multietapa logran un rendimiento comparable al de estos gigantes, avivando la competencia entre China, Europa y Estados Unidos por el liderazgo en IA abierta.
- Integra un modo de “pensamiento” directamente ligado al uso de herramientas externas.
- Soporta contextos de hasta 128.000 tokens, ideal para tareas largas y documentos extensos.
- La variante V3.2-Speciale sobresale en matemáticas e informática, con resultados cercanos a medallas de oro en olimpiadas internacionales.
- DeepSeek publica pesos e informe técnico, reforzando el frente de la IA open-source frente a los modelos completamente propietarios.
DeepSeek-V3.2: razonamiento al nivel de modelos punteros
Con sede en Hangzhou, DeepSeek presenta DeepSeek-V3.2 como la versión final y estable de su línea de modelos de razonamiento. Sustituye a una edición experimental previa y, según la propia empresa:
- Ofrece un rendimiento similar a GPT-5 en benchmarks públicos de razonamiento y pensamiento multietapa.
- Se sitúa solo un poco por debajo de Gemini-3 Pro en algunas pruebas de referencia.
El modelo combina:
- Razonamiento tipo humano
- Uso de herramientas externas:
- Buscadores web
- Calculadoras
- Entornos de ejecución de código
- Servicios de terceros como Claude Code
La idea es que el sistema no solo genere texto, sino que pueda planificar, consultar recursos, ejecutar funciones y combinar resultados, reduciendo la necesidad de supervisión constante.
DeepSeek ofrece dos formas de interacción con herramientas:
- Modo con razonamiento visible, donde el usuario puede ver los pasos intermedios.
- Modo sin mostrar la cadena de pensamiento, manteniendo solo la respuesta final.
En ambos casos, la “memoria de razonamiento” se conserva entre llamadas a herramientas dentro de la misma conversación, y se reinicia únicamente cuando llega un nuevo mensaje del usuario. Esto es especialmente útil en tareas largas o flujos tipo agente.

3. Modo «pensamiento» integrado en el uso de herramientas
Uno de los aspectos más llamativos de DeepSeek-V3.2 es la integración directa del modo pensamiento con el uso de herramientas:
Mientras razona, el modelo puede:
- Lanzar consultas al buscador
- Invocar una calculadora
- Ejecutar código
- Interactuar con otros servicios externos
Todo ello en ciclos alternados de:
- Análisis interno
- Llamadas externas
El objetivo es producir respuestas más profundas y precisas cuando la tarea lo requiere.
Según DeepSeek, V3.2 es su primer modelo capaz de razonar y usar herramientas de forma nativa, tanto en modo estándar como en modo de pensamiento intensivo, alineándose con los agent-based workflows:
- La IA deja de ser solo un sistema que contesta una pregunta aislada.
- Pasa a comportarse como un agente autónomo: descompone el problema, busca información, calcula y arma una solución coherente.
Además, DeepSeek-V3.2 está disponible:
- Vía web
- En app
- Mediante API
Esto facilita su integración en:
- Productos y asistentes virtuales
- Herramientas empresariales
- Proyectos desarrollados también desde Europa, donde se valora contar con alternativas abiertas que no dependan de una única gran plataforma.
4. Arquitectura DSA y eficiencia: DeepSeek Sparse Attention
En el plano técnico, el núcleo de DeepSeek-V3.2 es DeepSeek Sparse Attention (DSA), un mecanismo de atención dispersa pensado para:
- Manejar secuencias muy largas
- Reducir el coste computacional
Puntos clave de la arquitectura:
- Aproximadamente 671.000 millones de parámetros totales.
- En cada paso de inferencia solo se activan unos 37.000 millones de parámetros por token, lo que reduce el consumo de recursos.
- Ventanas de contexto de hasta 128.000 tokens, útil para:
- Análisis de documentos extensos
- Investigación académica
- Revisión de información legal y técnica de gran volumen
Según DeepSeek, el esquema DSA:
- Reduce aproximadamente a la mitad el coste de inferencia en contextos largos
- Frente a una arquitectura densa previa
Para organizaciones en España y la UE con presupuestos limitados en cómputo, esto abre la puerta a probar modelos avanzados sin necesitar la misma infraestructura que manejan las grandes tecnológicas estadounidenses.
La propia compañía admite, no obstante, que aún tiene margen de mejora en:
- Eficiencia de tokens
- Cobertura del conocimiento del mundo
Dos factores clave en despliegues a gran escala.
5. DeepSeek-V3.2: refuerzo con RL y datos sintéticos para agentes
Más allá de la arquitectura, DeepSeek atribuye gran parte del salto en razonamiento a un enorme trabajo de post-entrenamiento con aprendizaje por refuerzo (RL).
Elementos destacados:
- Más del 10 % del cómputo total de preentrenamiento se ha dedicado solo al RL, una cifra poco común en el sector.
- Objetivo: reforzar la capacidad del modelo para:
- Corregir errores
- Razonar en profundidad
- Usar herramientas
- Actuar en entornos interactivos
DeepSeek ha creado un ecosistema de:
- Más de 1.800 entornos de entrenamiento
- Unas 85.000 instrucciones avanzadas específicas para agentes
Las tareas abarcan:
- Búsquedas reales
- Simulaciones dinámicas
- Ejecución de código
- Problemas encadenados
- Escenarios generados y verificados de forma automática para reducir errores en los datos
La meta es construir agentes de IA capaces de:
- Operar con cierta autonomía
- Analizar información
- Tomar decisiones
- Actuar en flujos de trabajo multietapa
Para empresas europeas interesadas en automatizar procesos complejos (análisis financiero, soporte técnico avanzado, etc.), estas capacidades resultan especialmente llamativas, aunque queda por ver su comportamiento en entornos reales fuera de laboratorio.
6. DeepSeek-V3.2-Speciale: matemáticas, informática y pensamiento prolongado
Además del modelo generalista, DeepSeek lanza DeepSeek-V3.2-Speciale, una variante centrada en:
- Cálculo avanzado
- Demostraciones matemáticas
- Razonamiento prolongado
La compañía afirma que:
- Se sitúa a la altura de Gemini-3 Pro en tareas de razonamiento complejo.
- Logra resultados comparables a medallas de oro en:
- IMO (Olimpiada Internacional de Matemáticas)
- IOI (Olimpiada Internacional de Informática)
- Finales mundiales del ICPC
- Olimpiada Matemática China
Esta versión integra capacidades de DeepSeek-Math-V2, modelo especializado en:
- Demostración de teoremas
- Resolución de problemas de alta dificultad
Por ello, Speciale se perfila como herramienta para:
- Investigación científica y técnica
- Entornos académicos de alto nivel
A diferencia de la versión estándar:
- No está pensada para tareas cotidianas ni para integraciones generalistas.
- Tiene un consumo de tokens mayor.
- Por ahora, solo se ofrece vía API, no mediante apps de uso general.
7. Apertura, pesos publicados y contraste con los gigantes de EE. UU.
DeepSeek ha publicado:
- Los pesos completos de DeepSeek-V3.2
- Un informe técnico detallado sobre su entrenamiento
Esto contrasta con la tendencia de algunas grandes tecnológicas estadounidenses, que:
- Restringen cada vez más el acceso a código y pesos de sus modelos más avanzados.
- Ofrecen, en algunos casos, solo open source parcial con múltiples condiciones (como sucede con ciertas versiones de Llama).
Para el entorno europeo, este nivel de transparencia es clave cuando se necesita:
- Auditabilidad
- Cumplimiento de marcos como la Ley de IA de la UE
- Adaptación de modelos a requisitos normativos locales
Universidades, centros de investigación y administraciones pueden:
- Analizar el modelo en detalle
- Replicar experimentos
- Ajustar partes del sistema a sus necesidades sin depender totalmente de una API cerrada.
DeepSeek-V3.2 está disponible en:
- Hugging Face
- ModelScope
- Acceso vía API
Mientras que V3.2-Speciale se limita, por ahora, al acceso programático debido a su mayor coste computacional.
8. China en la carrera global por la IA
El lanzamiento de DeepSeek-V3.2 llega en un contexto en el que China busca consolidar su papel en la IA avanzada, pese a:
- Restricciones en el acceso a semiconductores de alto rendimiento
- Tensiones geopolíticas en aumento
DeepSeek se ha hecho conocida desde que su modelo V3.1 mostró resultados competitivos en:
- Experimentos de inversión automatizada frente a GPT-5 y Gemini 2.5 Pro
La empresa también desarrolla:
- DeepSeek-OCR, especializado en compresión de texto mediante percepción visual y procesamiento con menos recursos
Con ello refuerza su imagen de actor centrado en:
- Eficiencia
- Código abierto
Para Europa, donde se busca equilibrar innovación, protección de datos y seguridad, estos modelos plantean:
- Oportunidades: más opciones abiertas para laboratorios y empresas.
- Retos: compatibilidad con normativas locales, flujos de datos transfronterizos y posibles efectos de las regulaciones chinas de contenido.
9. Expectativas, límites y próximos pasos
DeepSeek admite que, pese a los avances:
- V3.2 aún va por detrás de algunos modelos estadounidenses en:
- Conocimiento general del mundo
- Comprensión de contextos culturales amplios
- Eficiencia de tokens
También subraya que:
- Los benchmarks públicos no siempre reflejan el rendimiento real en producción, especialmente en tareas abiertas con usuarios finales.
- La integración de herramientas en modo razonador necesita seguir probándose en casos sensibles (sanidad, finanzas, decisiones legales).
El ahorro computacional gracias a DSA es importante, pero podría no ser suficiente si:
- La calidad de las respuestas no se mantiene estable en tareas ambiguas o muy específicas.
Aun así, con DeepSeek-V3.2 y V3.2-Speciale:
- El mapa de la IA de razonamiento avanzado suma un nuevo competidor global.
- Se refuerzan las propuestas de modelos abiertos, herramientas integradas y costes contenidos.
- Se amplía el abanico disponible para investigación, empresa y sector público, a la vez que crece la presión para encajar esta rápida evolución en marcos regulatorios exigentes y en una competencia cada vez más marcada entre bloques tecnológicos.
Fuente: www.somoslibres.org
