DeepSeek irrumpe en el mercado global de la IA: eficiencia radical, código abierto y una nueva competencia frente a ChatGPT

Cuando DeepSeek lanzó su familia de modelos V3/R1 a inicios de 2025, lo que parecía otra novedad técnica más se convirtió en un punto de inflexión para el mercado: su propuesta combinó razonamiento avanzado, eficiencia de cómputo y apertura hasta un nivel que alteró expectativas tecnológicas y financieras, y forzó a los líderes establecidos OpenAI entre ellos a reaccionar. En pocas semanas, DeepSeek pasó de ser un nombre poco conocido fuera de China a encabezar rankings de descargas en iOS y Android, desencadenando, además, una corrección bursátil histórica por el temor a un “abaratamiento” acelerado de la IA de frontera.
Orígenes, ambición y tesis de eficiencia
Fundada en 2023 en Hangzhou por Liang Wenfeng y respaldada por el fondo cuantitativo High-Flyer, DeepSeek nació con una premisa rompedora: alcanzar rendimiento de punta con una fracción del coste mediante innovaciones algorítmicas y de arquitectura (Mixture‑of‑Experts, atención latente, precisión baja/mixta), además de un fuerte sesgo hacia el código abierto y la destilación para llevar capacidades de razonamiento a modelos más pequeños.
Esa tesis se materializó con DeepSeek‑V3 (MoE, 671B parámetros totales y ~37B activados por token) y, sobre todo, con DeepSeek‑R1, su línea enfocada en razonamiento y aprendizaje por refuerzo (RL) a gran escala. La combinación de apertura de pesos/código y costes operativos muy bajos con cifras de entrenamiento reportadas alrededor de 5,6–6 millones de dólares, muy por debajo de los presupuestos tradicionales se convirtió en el corazón de su relato competitivo.
El momento R1: del laboratorio a la plaza pública
El 20 de enero de 2025, DeepSeek presentó R1 y su app gratuita. En cuestión de días, superó a ChatGPT como la aplicación gratuita más descargada en la App Store de Estados Unidos y escaló en Google Play, señal de una tracción de consumidor real no solo de comunidad técnica alrededor de su propuesta de razonamiento avanzado “sin etiqueta premium”.
Ese ascenso en móviles tuvo varias lecturas. Por un lado, el efecto precio/código abierto: usuarios y desarrolladores podían experimentar con capacidades comparables a modelos de pago a coste marginal casi nulo. Por otro, la narrativa de rendimiento en benchmarks de matemáticas, código y tareas de razonamiento, donde R1 y la serie V3 aparecían como alternativas creíbles a la vanguardia cerrada de Occidente.
Arquitectura y método: cómo competir pensando distinto
El protagonismo técnico de DeepSeek se apoya en varios pilares:
- Mixture‑of‑Experts (MoE) con enrutamiento optimizado: activa sólo una fracción de los parámetros por token, recortando inferencia sin degrado sustantivo del rendimiento.
- Atención latente y esparsidad: técnicas de attention más frugales (considerando variantes “sparse”) y mecanismos auxiliares (indexadores) para reducir memoria y costo por millón de tokens de salida.
- Razonamiento vía RL: R1 valida que capacidad de argumentación puede emerger con refuerzo a gran escala, no solo con ajuste supervisado; luego destila esos patrones en modelos más compactos.
- Apertura y destilados: versiones reducidas por ejemplo, R1‑0528‑Qwen3‑8B acercan el razonamiento a entornos de una sola GPU, ampliando base de adopción y casos de uso locales.
Este diseño para la inferencia optimizar el coste en tiempo de uso y no sólo el entrenamiento es quizá su contribución estratégica más influyente, pues presiona el modelo económico de la IA comercial donde cada token cuenta.
Golpe a la mesa de mercado: precios y API como palanca
En paralelo al éxito de su app, DeepSeek consolidó una ruta de entrada B2D/B2B con una API agresiva en precio. Con caché de contexto automática y modos “chat” (V3.2) y “reasoner” (pensamiento), su tabla de tarifas por millón de tokens $0.028 (hit) / $0.28 (miss) / $0.42 (output) para V3.2, con límites amplios de contexto redujo de forma visible el TCO de prototipos, POCs y despliegues a escala.
A paridad razonable de calidad, DeepSeek es varios órdenes de magnitud más barato que ofertas premium, en especial si el caché se aprovecha bien. Este diferencial fue clave para su adopción temprana en startups, equipos de ingeniería y funciones de automatización interna.
La reacción en cadena: de las descargas a Wall Street
La viralidad de la app y la cobertura sobre los costes removieron expectativas de crecimiento en la cadena de valor de IA (chips, nubes, hyperscalers). El 27 de enero de 2025 se registraron caídas pronunciadas Nvidia perdió cerca de 600.000 millones de dólares de capitalización en un día cuando el mercado extrapoló que márgenes y “moats” de la IA podrían comprimirse si la eficiencia de DeepSeek se generalizaba. Aunque luego hubo recuperación parcial, el mensaje quedó instalado: la eficiencia importa.
Analistas subrayaron que la propuesta de DeepSeek no sólo amenaza en la cúpula de “frontera”, sino que democratiza capacidades destilados abiertos, ejecución en hardware común, y costes de inferencia drásticamente más bajos golpeando el pricing power de servicios cerrados y con tarifas elevadas por token.
Competir con ChatGPT: ¿dónde gana DeepSeek, dónde aún no?
En su entrada al mercado de consumo, DeepSeek ganó por accesibilidad (gratis), rapidez percibida, y narrativa de razonamiento. En el mercado desarrollador/empresa, ganó por precio, apertura (pesos y paper R1 en GitHub), y una API pragmática con tool calling, salida JSON y un modo de pensamiento útil para flujos complejos.
Comparativas independientes muestran a V3 venciendo a GPT‑4o en varios benchmarks técnicos (AIME 2024, MMLU, SWE‑Bench Verified), si bien GPT‑4o conserva ventajas multimodales y ecosistémicas (p. ej., imagen nativa, tooling propietario y red de integraciones). En términos de precio por millón de tokens, la brecha favorece ampliamente a DeepSeek.
La línea R1 compite frontalmente con la familia o1/o3 de OpenAI en razonamiento; su actualización R1‑0528 (mayo de 2025) redujo alucinaciones y elevó métricas clave, acercando más los resultados a o3/Gemini 2.5 Pro según reportes sectoriales.
Sombra larga: acusaciones, regulaciones y gobernanza de datos
El ascenso de DeepSeek vino acompañado de escrutinio regulatorio en EE. UU. y Europa. Informes del Congreso estadounidense y notas de prensa señalaron riesgos de seguridad nacional, posible elusión de controles de exportación y transferencia de datos de usuarios hacia infraestructura en China, con alegadas conexiones de uso dual civil‑militar. La discusión—en curso—ha motivado nuevas restricciones de exportación y debates sobre gobernanza de datos transfronteriza.
Centros de estudio como CSIS pidieron analizar a DeepSeek con rigor: reconocer méritos técnicos reales (no sólo propaganda ni copia) y, a la vez, reforzar los regímenes de control de chips y nubes si se considera un desafío estratégico. Este marco es clave para entender que, más allá de polémicas, DeepSeek ha introducido innovaciones propias que compiten en mérito técnico.
En paralelo, voces pro‑controles argumentan que el caso DeepSeek no invalida la utilidad de los controles de exportación; más bien, la eficiencia que exhibe refuerza la urgencia de perfeccionarlos para modular la capacidad agregada de cómputo disponible en China.
La estrategia de producto: del “reasoning” al ecosistema
A nivel de producto, DeepSeek explotó una secuencia virtuosa: (1) demostrar razonamiento con R1 y reforzarlo con destilados; (2) hacerlo accesible vía app (viralidad) y API barata (adopción de desarrolladores); (3) iterar rápido (R1‑0528, V3.2, optimizaciones de atención esparsa) para cerrar brechas de calidad y reducir coste por token; y (4) preparar el terreno para extensiones y verticales (p. ej., codificación, herramientas, integración empresarial).
El énfasis en inferencias más baratas—75% de reducción en iteraciones V3.x según coberturas de prensa—cambia la curva económica de uso continuo (call centers, asistentes internos, agentes autónomos), abriendo espacio a nuevos modelos de negocio que antes eran prohibitivos con tarifas superiores por token.
Conclusión: la “era DeepSeek” de la eficiencia
La entrada de DeepSeek al mercado no solo añade otro actor a la competencia con ChatGPT; desplaza los ejes estratégicos de la industria: del “más grande y cerrado” al “más eficiente y abierto”; del “paga por potencia” al “razona mejor por menos”; del “lock‑in de ecosistema” a la “portabilidad” y la reproducibilidad comunitaria.
Su protagonismo proviene de unir tres vectores: (1) técnica (R1, RL, MoE, atención esparsa, destilación), (2) economía (API a centavos por millón de tokens con caché), y (3) distribución (app gratuita de gran alcance). Con todo, su legitimidad futura en Occidente dependerá de navegar cumplimiento, privacidad y geopolítica, áreas donde la percepción pública y los marcos regulatorios aún se están configurando.
Para OpenAI/ChatGPT, el desafío no es solo técnico, sino económico y narrativo: demostrar por qué—y en qué casos de uso—un servicio más caro y cerrado sigue ofreciendo valor diferencial. Para usuarios y empresas, la irrupción de DeepSeek es, por ahora, una buena noticia: mejores capacidades de razonamiento, más apertura, y costes sensiblemente más bajos. Si la industria adopta la lección de DeepSeek—hacer que los modelos piensen mejor gastando menos—estaremos, quizás, ante el inicio de una nueva curva de aprendizaje de la IA, donde la innovación de algoritmo y sistema pese tanto o más que la fuerza bruta de cómputo.
Fuentes
https://es.linkedin.com/pulse/deepseek-la-ia-que-est%C3%A1-golpeando-fuerte-el-tablero-tech-guru-soft-uoete
https://adasci.org/courses/building-ai-solutions-with-deepseek-a-hands-on-workshop
https://currentaffairs.adda247.com/deepseek-revolutionizing-the-ai-world/
https://www.contextualsolutions.de/blog/deepseek-ai-eu-innovation
https://www.youtube.com/watch?v=70ArCjJS_nA
