Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Promociones
Centro de actividades
Únete a actividades y gana recompensas
Referido
20 USDT
Invita amigos y gana por tus referidos
Programa de afiliados
Gana recompensas de comisión exclusivas
Gate Booster
Aumenta tu influencia y gana airdrops
Anuncio
Novedades de plataforma en tiempo real
Blog de Gate
Artículos del sector de las criptomonedas
AI
Gate AI
Tu compañero de IA conversacional para todo
Gate AI Bot
Usa Gate AI directamente en tu aplicación social
GateClaw
Gate Blue Lobster, listo para usar
Gate for AI Agent
Infraestructura de IA, Gate MCP, Skills y CLI
Gate Skills Hub
+10 000 habilidades
De la oficina al trading, una biblioteca de habilidades todo en uno para sacar el máximo partido a la IA
GateRouter
Elige inteligentemente entre más de 30 modelos de IA, con 0% de costos adicionales
Solo noto mientras sigo la industria de IA que hay un patrón extraño que está ocurriendo. Hace solo ocho años, una compañía china de telecomunicaciones literalmente perdió la vida debido a un embargo. Pero ahora, otras compañías chinas de IA están creciendo rápidamente incluso frente a una mayor presión. ¿Qué realmente ha cambiado?
Volvamos a 2018. ZTE era una de las mayores fabricantes de equipos de telecomunicaciones en el mundo—80,000 empleados, miles de millones en ingresos anuales. Luego, en un solo día, una orden del Departamento de Comercio de EE. UU. cerró toda la compañía. Sin componentes estadounidenses, sin licencia de Google, sin sistema operativo. Tres semanas después, ZTE anunció que ya no podían operar el negocio. Pagaron una multa de 1.4 mil millones de dólares, pero el problema real estaba en el ecosistema—eran completamente dependientes de una cadena de suministro global controlada por EE. UU.
Ahora, aunque todavía existen restricciones similares, las compañías chinas de IA no sufren el mismo destino. ¿Por qué? Porque el problema no es solo el hardware. La verdadera limitación es CUDA.
Lo digo porque la mayoría asume que la prohibición de chips se trata solo de los chips en sí. Eso es un error. CUDA—la plataforma de computación paralela de NVIDIA desde 2006—es la verdadera barrera. Todos los principales frameworks de IA en todo el mundo, desde TensorFlow de Google hasta PyTorch de Meta, dependen profundamente de CUDA. Cuando un investigador de IA aprende, CUDA es la primera herramienta que adquiere. Cada línea de código fortalece el ecosistema de NVIDIA.
Para 2025, hay 4.5 millones de desarrolladores en el ecosistema CUDA, más de 3000 aplicaciones aceleradas por GPU, y 40,000 empresas en todo el mundo lo usan. Eso representa el 90% de los desarrolladores de IA globales. Es un ciclo de inercia que, una vez iniciado, es casi imposible de detener. Cuantos más desarrolladores, más herramientas. Cuantas más herramientas, más desarrolladores se unen. ¿El resultado? NVIDIA marca las reglas, y todos siguen.
Por eso, en 2022-2024, el gobierno de EE. UU. implementó tres olas de restricciones en la exportación de chips NVIDIA. Primero A100 y H100, luego A800 y H800, y finalmente H20. Pero esto no provocó el mismo pánico que ocurrió con ZTE. ¿Por qué? Porque las compañías chinas pivotaron hacia la optimización de algoritmos en lugar de rebelarse contra el hardware.
DeepSeek es el mejor ejemplo de esto. Su modelo V3 tiene 671 mil millones de parámetros, pero cada inferencia usa solo 37 mil millones—solo el 5.5% del total. Para entrenarlo, usaron solo 2,048 GPUs NVIDIA H800 durante 58 días, con un costo total de 5.576 millones de dólares. Comparado con los aproximadamente 78 millones de dólares estimados para GPT-4. Una diferencia de orden de magnitud.
El precio habla aún más. La entrada a la API de DeepSeek cuesta entre 0.028 y 0.28 dólares por millón de tokens, y la salida 0.42 dólares. GPT-4 cuesta 5 dólares por entrada y 15 dólares por salida. Claude Opus es aún más caro—15 dólares por entrada, 75 dólares por salida. DeepSeek es de 25 a 75 veces más barato. Esta diferencia de precio provocó un cambio masivo en el mercado de desarrolladores.
En febrero de 2026, en OpenRouter—la mayor plataforma de agregación de APIs de modelos de IA—el uso semanal de modelos de IA chinos saltó un 127% en tres semanas y superó a EE. UU. por primera vez. Hace un año, los modelos chinos representaban menos del 2% del mercado. Ahora, aumentaron un 421% y se acercan al 6%. Pero el cambio más profundo no es solo en el precio. Desde mediados de 2025, la aplicación principal de IA cambió de chat a Agentes. En escenarios de Agentes, el uso de tokens es de 10 a 100 veces mayor en comparación con un chat simple. Cuando el consumo de tokens explota exponencialmente, el precio se vuelve el factor decisivo. La eficiencia extrema en costos de los modelos chinos encajó perfectamente en esta ventana.
Pero la optimización de algoritmos no solo resuelve el problema del entrenamiento. Si no puedes entrenar con los datos más recientes y hacer iteraciones, tu modelo rápidamente quedará obsoleto. El entrenamiento requiere una potencia de cálculo masiva. Entonces, ¿de dónde obtienen las compañías chinas su infraestructura de computación?
Hay una pequeña ciudad en Jiangsu, Xinghua—famosa solo por acero inoxidable y comida saludable—pero en 2025 construyeron allí una línea de producción de servidores de 148 metros. Desde la firma del acuerdo hasta la operación, solo 180 días. El núcleo son dos chips completamente locales: el procesador Loongson 3C6000 y la tarjeta aceleradora de IA TaiChu Yuanqi T100. El Loongson tiene un diseño propio, desde el conjunto de instrucciones hasta la microarquitectura. La TaiChu Yuanqi proviene del Centro Nacional de Supercomputación de Wuxi y la Universidad Tsinghua, con una arquitectura heterogénea de muchos núcleos.
Cuando alcance plena capacidad, un servidor cada 5 minutos. Inversión total de 1.1 mil millones de yuanes, con una expectativa de 100,000 unidades anualmente. Lo importante es que los clústeres de miles de chips locales ya están comenzando a manejar entrenamiento de modelos realmente grandes. En enero de 2026, Zhipu AI lanzó GLM-Image junto con Huawei—el primer modelo de generación de imágenes SOTA entrenado completamente con chips locales. En febrero, China Telecom completó el entrenamiento completo de su modelo Xingchen de cientos de miles de millones en una piscina de computación local con miles de GPUs en Shanghái Lingang.
La importancia de esto es solo una: los chips locales han pasado de ser solo para inferencia a ser capaces de entrenar. Es un cambio cualitativo. La inferencia solo necesita modelos preentrenados, con requisitos relativamente bajos de chips. El entrenamiento requiere manejar datos masivos, cálculos complejos de gradientes, actualizaciones de parámetros—mayores demandas en potencia de cálculo, ancho de banda de interconexión, ecosistema de software.
La fuerza impulsora son las series Ascend de Huawei. Para finales de 2025, los desarrolladores del ecosistema Ascend alcanzaron los 4 millones, con 3000+ socios, y 43 modelos principales completaron preentrenamiento usando Ascend, además de más de 200 modelos de código abierto adaptados. El 2 de marzo de 2026, en el MWC, Huawei presentó la infraestructura de computo de nueva generación SuperPoD para mercados internacionales. La potencia de cálculo FP16 del Ascend 910B equivale ya a la de un NVIDIA A100. Aún hay brechas, pero ya es usable, pasando de ser completamente inutilizable. La construcción del ecosistema no debe esperar a tener chips perfectos—debe desplegarse ampliamente mientras sean suficientes, usando necesidades reales de negocio para forzar actualizaciones de chips y software.
Los objetivos de despliegue de ByteDance, Tencent, Baidu para servidores locales se espera que se dupliquen en 2026 respecto al año pasado. Según el Ministerio de Industria y Tecnología de la Información, la escala de computación inteligente en China alcanzó los 1590 EFLOPS. 2026 será el año del despliegue masivo de potencia de computación local.
Pero hay otra cara de la historia igualmente importante—la energía. Virginia, que maneja una gran parte del tráfico mundial de centros de datos, pausó los permisos para nuevos centros de datos. Georgia pausó hasta 2027. Illinois y Michigan emitieron restricciones. Según la Agencia Internacional de Energía, el consumo eléctrico de los centros de datos en EE. UU. en 2024 alcanzó las 183 teravatios-hora, aproximadamente el 4% del consumo nacional total. Para 2030, se espera que se duplique a 426 TWh, posiblemente superando el 12%. El CEO de Arm dijo que para 2030, los centros de datos de IA por sí solos podrían consumir entre el 20 y el 25% de la electricidad de EE. UU.
La red eléctrica de EE. UU. ya está en límites. La red PJM, que cubre 13 estados del este, tiene una escasez de capacidad de 6 GW. Para 2033, toda EE. UU. enfrentará una escasez de capacidad eléctrica de 175 GW, equivalente al consumo energético de 130 millones de hogares. Los precios de electricidad en regiones con centros de datos concentrados han aumentado un 267% en cinco años. La frontera del poder de cálculo es la energía.
Pero en el lado energético, la brecha entre China y EE. UU. es mayor que en los chips, pero en dirección opuesta. La generación anual de electricidad en China es de 10.4 billones de unidades, frente a 4.2 billones en EE. UU.—China produce 2.5 veces más. Más importante aún, el uso doméstico de electricidad en China representa solo el 15% del total, frente al 36% en EE. UU. Lo que significa que China puede tener una mayor capacidad industrial de electricidad disponible para la expansión del poder de cálculo.
Solo el precio de la electricidad—las regiones de empresas de IA en EE. UU. tienen tarifas de 0.12 a 0.15 dólares por kilovatio-hora, mientras que las tarifas industriales en el oeste de China rondan los 0.03 dólares, la mitad o una quinta parte del precio en EE. UU. La ventaja de generación eléctrica de China es siete veces mayor que la de EE. UU.
Mientras EE. UU. se preocupa por la energía, la IA china se desarrolla silenciosamente en otros países. Pero esta vez, no crecen los productos o fábricas—crecen los tokens. Los tokens, la unidad de información más pequeña considerada por los modelos de IA, se han convertido en una nueva mercancía digital. Producidos en fábricas de computación chinas, enviados por todo el mundo a través de cables submarinos.
La distribución de usuarios de DeepSeek es clara: 30.7% desde China, 13.6% desde India, 6.9% desde Indonesia, 4.3% desde EE. UU., 3.2% desde Francia. Soporta 37 idiomas, muy valorado en mercados emergentes como Brasil. 26,000 empresas en todo el mundo pueden tener cuentas, 3,200 instituciones usan la versión empresarial. En 2025, el 58% de las nuevas startups de IA integraron DeepSeek en su pila tecnológica. En China, DeepSeek capturó el 89% de la cuota de mercado. En otros mercados entrenados, la cuota varía entre 40 y 60%.
Esta visión es como una guerra por el control de la industria que ocurrió hace cuatro décadas. Tokio, 1986, bajo intensa presión de EE. UU., el gobierno japonés firmó el Acuerdo de Semiconductores EE. UU.-Japón. Tres características principales: abrir el mercado de semiconductores de Japón, que la cuota de mercado de chips de EE. UU. supere el 20%, prohibiciones de exportación de semiconductores por debajo del costo, penalización del 100% por chips exportados por 3 mil millones de dólares. EE. UU. rechazó la adquisición de Fujitsu de Fairchild. Ese año, la industria de semiconductores de Japón estaba en su apogeo. Para 1988, Japón controlaba el 51% del mercado global de semiconductores, EE. UU. el 36.8%. Entre las 10 principales empresas de semiconductores del mundo, seis eran japonesas: NEC en segundo lugar, Toshiba en tercero, Hitachi en quinto, Fujitsu en séptimo, Mitsubishi en octavo, Panasonic en noveno.
Pero tras la firma del acuerdo, todo cambió. EE. UU. utilizó investigaciones bajo la Sección 301 para suprimir completamente a las empresas japonesas de semiconductores. Mientras tanto, apoyó a Samsung y SK Hynix de Corea para luchar contra el mercado japonés a precios más bajos. La cuota de DRAM de Japón cayó del 80% al 10%. Para 2017, la cuota de mercado de IC de Japón era solo del 7%. Las empresas que antes eran fuertes se dividieron, compraron o salieron tras pérdidas interminables.
La tragedia de los semiconductores japoneses fue confiar en la división global del trabajo liderada por poderes externos, como el mejor productor, pero sin pensar en construir un ecosistema independiente. Cuando la ola se retiró, descubrieron que no tenían más que la manufactura en sí misma.
La industria china de IA actual enfrenta una cruzada similar, pero completamente diferente. También enfrentan una gran presión externa. Tres olas de restricciones en chips, que se fortalecen continuamente, mantienen la barrera del ecosistema CUDA alta. La diferencia es que esta vez eligieron un camino más difícil—desde la optimización extrema de algoritmos, pasando por el desarrollo de chips locales desde inferencia hasta entrenamiento, reuniendo 4 millones de desarrolladores en el ecosistema Ascend, hasta distribuir tokens en el mercado global. Cada paso construye un ecosistema industrial independiente que Japón nunca tuvo.
El 27 de febrero de 2026, tres compañías locales de chips de IA reportaron resultados. Cambrian, con un aumento del 453% en ingresos, logró por primera vez rentabilidad anual completa. Moore Threads, ingresos subieron un 243%, pero con una pérdida neta de 1 mil millones. Muxi, ingresos aumentaron un 121%, con una pérdida neta casi de 8 mil millones. Mitad fuego, mitad agua. El fuego es el hambre del mercado. El 95% del espacio liberado por Huang fue cubierto por los ingresos de las compañías locales, cumpliendo una a una las metas. Cualquier rendimiento, cualquier ecosistema, el mercado necesita una segunda opción donde NVIDIA no esté. Es una oportunidad estructural inusual descubierta por la geopolítica.
Construir ecosistema es costoso. Cada pérdida es dinero real gastado siguiendo el ecosistema CUDA. Costos de aprendizaje, subsidios de software, viajes de ingenieros a sitios de clientes para resolver problemas de compilación. Estas pérdidas no son por operaciones pobres—son impuestos de guerra necesarios para construir un ecosistema independiente. Estos tres informes de rendimiento reflejan más una situación de guerra de poder de hash real que cualquier informe de la industria. No es un éxito lleno de celebraciones, sino una batalla brutal de posiciones, donde los soldados se levantan sangrando.
Pero la forma de la guerra realmente cambió. Hace ocho años, se discutía la pregunta '¿podemos sobrevivir?'. Ahora, se discute '¿a qué costo debemos sobrevivir?'. El costo en sí mismo es progreso.