DeepSeek V4-Flash se lanza en Ollama Cloud, servidor en EE. UU.: Claude Code, OpenClaw con un clic para conectar

La herramienta de ejecución local de modelos de IA Ollama, anunciada públicamente en la plataforma X el 24/4, informó que incorporará el modelo V4-Flash, lanzado el día anterior por la startup china de IA DeepSeek, en el servicio Ollama Cloud. El servidor de inferencia está ubicado en Estados Unidos, y ofrece tres conjuntos de comandos de un solo toque para que los desarrolladores conecten directamente V4-Flash a flujos de trabajo de desarrollo de software de IA populares como Claude Code, OpenClaw y Hermes.

deepseek-v4-flash is now available on Ollama’s cloud! Hosted in the US. Try it with Claude Code: ollama launch claude –model deepseek-v4-flash:cloud Try it with OpenClaw: ollama launch openclaw –model deepseek-v4-flash:cloud Try it with Hermes: ollama launch hermes…

— ollama (@ollama) April 24, 2026

Previa de DeepSeek V4: dos tamaños, 1M de contexto

De acuerdo con el anuncio publicado por la documentación oficial de la API de DeepSeek el 24/4, DeepSeek-V4 Preview se abre en simultáneo en dos tamaños:

Modelo Parámetros totales Parámetros activos Enfoque DeepSeek-V4-Pro 1,6 billones 490 millones Objetivo: buque insignia propietario DeepSeek-V4-Flash 2,840 billones 130 millones Rápido, eficiente y de bajo costo

Ambos adoptan una arquitectura Mixture-of-Experts (MoE), con soporte nativo para contextos largos de 1 millón de tokens. En el anuncio, DeepSeek declara: «El contexto de 1M ahora es el valor predeterminado de todos los servicios oficiales de DeepSeek».

Innovación de arquitectura: atención dispersa DSA + compresión por token

Las mejoras arquitectónicas centrales de la serie V4 incluyen:

Compresión por token junto con DSA (DeepSeek Sparse Attention) — reduce drásticamente el costo de los cálculos de inferencia y la memoria caché de KV en escenarios de contextos extremadamente largos

En comparación con V3.2, en el contexto de 1 millón de tokens, V4-Pro requiere solo 27% de los FLOPs para inferencia por token y la caché KV solo requiere 10%

Soporta el cambio entre dos modos: Thinking y Non-Thinking, para satisfacer necesidades de razonamiento profundo en tareas diferentes

A nivel de API, es compatible tanto con OpenAI ChatCompletions como con las especificaciones de Anthropic APIs, reduciendo el costo de migración de los clientes existentes de Claude/GPT.

Los tres comandos de inicio inmediato de Ollama Cloud

En la página oficial del modelo, se ofrece el servicio de inferencia en la nube con el identificador de modelo deepseek-v4-flash:cloud; los desarrolladores pueden usar los siguientes tres conjuntos de comandos para conectar V4-Flash directamente a flujos de trabajo existentes de desarrollo de software de IA:

Flujo de trabajo Comando Claude Code ollama launch claude --model deepseek-v4-flash:cloud OpenClaw ollama launch openclaw --model deepseek-v4-flash:cloud Hermes ollama launch hermes

Cabe prestar atención a la señal de «servidor en Estados Unidos». Para empresas y desarrolladores de Europa y Norteamérica, la mayor inquietud al usar modelos de código abierto chinos es la devolución de datos a China; Ollama elige colocar la capa de inferencia de V4-Flash en Estados Unidos, lo que significa que el prompt y el contenido del código no salen del ámbito jurisdiccional de Estados Unidos, reduciendo fricciones en términos de cumplimiento y soberanía de datos.

Por qué este asunto es importante para la industria de la IA

Al conectar entre sí DeepSeek V4-Flash, Ollama Cloud y Claude Code, que antes eran ecosistemas independientes, se generan tres significados:

Ruta de costos: los 13.000 millones de parámetros activos de V4-Flash son muy inferiores a los de buques insignia como GPT-5.5 (5 dólares de entrada, 30 dólares de salida por cada millón de tokens) y Claude Opus 4.7; para tareas de agentes de tamaño medio y pequeño, resúmenes por lotes, automatización de pruebas, etc., se espera que el costo unitario disminuya de forma significativa

Capa intermedia de riesgo geográfico: al actuar Ollama como una capa de inferencia intermedia registrada en Estados Unidos, permite a los usuarios empresariales de modelos nativos chinos eludir la preocupación de que «los datos se envíen directamente al servidor de DeepSeek en Beijing»; esta es una solución práctica para la difusión internacional de modelos de código abierto

Cambio inmediato para desarrolladores: los usuarios de Claude Code y OpenClaw pueden cambiar de modelo en una sola línea en la línea de comandos, sin necesidad de cambiar la estructura del prompt ni la configuración del IDE; para escenarios como «pruebas de regresión con múltiples modelos» y «tareas por lotes sensibles al costo», esto realmente libera productividad

Vinculación con noticias anteriores de DeepSeek

El lanzamiento de esta V4 y la integración rápida con Ollama Cloud ocurre en un contexto en el que DeepSeek está negociando la primera ronda de financiación externa y una valoración de 20.000 millones de dólares. V4 es una prueba clave de producto en el proceso de capitalización de la empresa DeepSeek; con una estrategia de código abierto + socios de expansión rápida a nivel internacional, es una carrera de velocidad para establecer la dominancia del ecosistema de desarrolladores antes de consolidarla. Para OpenAI y Anthropic, un modelo de reemplazo abierto que se puede cambiar en una sola línea dentro de Claude Code es una nueva variable en la puja por el control de los flujos de trabajo de los agentes.

Este artículo «DeepSeek V4-Flash llega a Ollama Cloud, servidor en Estados Unidos: conexión en un solo toque con Claude Code, OpenClaw» apareció por primera vez en Cadena News ABMedia.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

La plataforma de agentes de trading con IA Fere AI recauda $1.3M, liderada por Ethereal Ventures

Mensaje de Gate News, 25 de abril: la plataforma de agentes de trading de activos digitales impulsada por IA Fere AI anunció la finalización de una ronda de financiación de $1.3 millones, liderada por Ethereal Ventures, con la participación de Galaxy Vision Hill y Kosmos Ventures. La plataforma admite redes entre cadenas que incluyen Ethereum,

GateNewsHace30m

La NDRC de China ordena a las empresas de IA, incluidas Moonshot y StepFun, rechazar capital de EE. UU. sin aprobación

Mensaje de Gate News, 25 de abril — La Comisión Nacional de Desarrollo y Reforma de China (NDRC) ha instruido a múltiples empresas de IA que rechacen el capital estadounidense en las últimas semanas a menos que obtengan la aprobación explícita del gobierno, según Bloomberg citando fuentes informadas. Moonshot AI y StepFun, ambas preparando f

GateNewshace1h

Juez de EE. UU. desestima las acusaciones de fraude de Musk contra OpenAI y Altman

Mensaje de Gate News, 25 de abril — Un juez de EE. UU. ha desestimado las acusaciones de fraude presentadas por Elon Musk contra OpenAI y el cofundador de OpenAI, Sam Altman, en su demanda en curso contra la empresa. El tribunal ha dictaminado que las acusaciones de fraude no seguirán adelante, aunque el juez ha programado audiencias adicionales para abordar las acusaciones restantes de Musk en el caso.

GateNewshace1h

¿Por qué una buena noticia de Intel impulsa una fuerte subida de las acciones de Nvidia?

Las ganancias por acción (EPS) de Intel en este trimestre fueron de 0,29 USD y los ingresos de 13.600 millones de USD, ambos superaron las expectativas; el impulso de las actualizaciones en centros de datos y equipos de cómputo se ha recuperado, impulsando la confianza en la demanda de semiconductores y de IA. Esta buena noticia hizo que el precio de las acciones de Nvidia subiera alrededor de un 4,9% al mediodía; el mercado considera que la demanda de capacidad informática subyacente sigue siendo sólida, reduce la preocupación por una posible “burbuja” de la IA y respalda las expectativas de crecimiento a largo plazo de Nvidia. La competencia entre ambas también se refleja en una sincronización positiva de sectores.

ChainNewsAbmediahace6h

China y EE. UU. se enfrentan en un pulso de IA por acusaciones de destilación de modelos y restricciones de inversión

Mensaje de Gate News, 24 de abril — China ha rechazado las acusaciones de EE. UU. de que sus gigantes tecnológicos están aprovechando la tecnología de IA estadounidense mediante destilación a escala industrial, mientras ambos países se preparan para un choque importante por el desarrollo de la IA y el control de las inversiones. La administración de Trump está preparando una

GateNewshace8h

Alphabet invertirá hasta $40 mil millones en Anthropic, impulsando la competencia en IA

Mensaje de Gate News, 24 de abril — Alphabet, la empresa matriz de Google, planea invertir hasta $40 mil millones en el desarrollador de IA Anthropic, que comprende $10 mil millones de desembolso inicial y $30 mil millones en financiación adicional sujeta a lograr ciertos hitos de rendimiento. Esta inversión sigue a la participación previa del 14% de Alphabet en Anthropic y

GateNewshace10h
Comentar
0/400
Sin comentarios