《All-In Podcast》La batalla de la IA en el campo de batalla se convierte en razonamiento, se reinicia la guerra de chips de silicio, y las nuevas startups también pueden destacar

ChainNewsAbmedia

En el último episodio de 《All-In Podcast》, los cuatro presentadores revelaron que OpenAI ha llegado a un acuerdo de colaboración importante con la startup estadounidense de chips de IA Cerebras, y en los próximos tres años adquirirá hasta 750 gigavatios de capacidad de cálculo, con un valor total que alcanza los mil millones de dólares. El enfoque de esta operación no está en el entrenamiento de modelos, sino en un aspecto clave de la comercialización de IA: (Inference), es decir, la potencia de cálculo necesaria para que los modelos proporcionen respuestas y servicios en tiempo real. Los presentadores señalaron que esto simboliza que la competencia en la industria de IA está pasando gradualmente de “quién entrena el modelo más grande” a “quién puede ofrecer la inferencia más rápida, estable y eficiente en costos”.

Contrato de 750 gigavatios en tres años, OpenAI apuesta por la inferencia

En el programa se mencionó que OpenAI ha prometido en tres años adquirir hasta 750 gigavatios de recursos de cálculo de Cerebras, equivalente a la capacidad de una gran central eléctrica, para apoyar el funcionamiento de los sistemas de IA en aplicaciones prácticas.

El equipo de presentadores enfatizó que esta colaboración no se centra en entrenar nuevos modelos, sino en soportar las demandas de inferencia en tiempo real de ChatGPT, servicios API y diversas aplicaciones de IA. A medida que aumenta rápidamente el número de usuarios y escenarios de aplicación, la potencia de cálculo necesaria para la inferencia será mucho mayor que en la fase de entrenamiento del modelo.

La estrategia tecnológica de Cerebras, un chip de una sola pieza

El invitado explicó que Cerebras, desde su fundación, eligió una estrategia completamente diferente a la de los chips convencionales.

Los chips tradicionales se fabrican cortando en la oblea muchas pequeñas unidades, que luego se empaquetan y usan por separado; en cambio, Cerebras diseña toda la oblea como un solo chip gigante, integrando en él una gran cantidad de unidades de cálculo y memoria.

Este diseño reduce significativamente la distancia física entre el cálculo y la memoria, evitando que los datos tengan que transmitirse entre múltiples chips, lo que disminuye la complejidad del sistema y ayuda a mejorar la eficiencia general del cálculo.

Cerebras se enfoca en baja latencia, velocidad en escenarios de inferencia

El programa señaló que los indicadores clave en la fase de inferencia son la velocidad de respuesta, el rendimiento en latencia y la estabilidad del sistema. Tras enviar una instrucción, el modelo debe completar el cálculo y devolver el resultado en tiempo real; cualquier retraso afecta directamente la experiencia del usuario.

Debido a que Cerebras concentra gran parte de la potencia de cálculo y memoria en un solo chip gigante, los datos fluyen en distancias extremadamente cortas, lo que lo hace especialmente adecuado para escenarios de inferencia que requieren respuestas de alta frecuencia y baja latencia.

Se mencionó que las primeras instituciones en adoptar ampliamente los sistemas de Cerebras fueron organizaciones en Oriente Medio, incluyendo entidades relacionadas con los Emiratos Árabes Unidos; tras su despliegue, en tareas específicas de inferencia, demostraron una ventaja de velocidad significativa.

OpenAI diversifica su cadena de suministro para evitar riesgos con un solo proveedor

El equipo de presentadores señaló que en los últimos años OpenAI ha adoptado claramente una estrategia de “múltiples proveedores”, dejando de depender completamente de un solo fabricante de chips.

Actualmente, OpenAI utiliza en gran medida la potencia de NVIDIA (NVIDIA) y también colabora con AMD (AMD), y ahora incorpora Cerebras, formando múltiples rutas de suministro de potencia de cálculo. El objetivo es diversificar riesgos y evitar que cambios en la capacidad, precios o políticas de un solo proveedor afecten la estabilidad del servicio.

El programa describió esto como una estrategia de “descentralización” en la cadena de suministro de potencia de cálculo, asegurando que, ante cualquier problema en una de las rutas, el servicio pueda mantenerse sin interrupciones.

La industria de los chips de silicio se reorganiza, y las nuevas startups también tienen oportunidad

El equipo de presentadores opinó que esta colaboración no solo representa un ajuste estratégico de OpenAI, sino que también simboliza que la industria de chips de IA está entrando en una nueva fase de competencia.

En los próximos 10 a 20 años, es probable que se repita la situación de la era de los primeros ordenadores personales, donde muchas empresas competían; no solo las grandes compañías de chips, sino también muchas startups podrían encontrar su lugar en áreas como chips de inferencia, potencia dedicada y chips para aplicaciones verticales.

Con la demanda de comercialización de IA en constante crecimiento, siempre que la dirección tecnológica sea correcta, las pequeñas startups aún tienen la oportunidad de crecer rápidamente en la industria.

Cambio de foco en la industria, de la competencia en entrenamiento a la competencia en inferencia

El cierre del programa resumió que, en las primeras etapas del desarrollo de IA, el mercado se centraba en quién podía entrenar el modelo más grande y potente; pero a medida que las aplicaciones se implementan, lo que realmente decidirá la victoria será quién pueda ofrecer inferencia más rápida, a menor costo y con mayor estabilidad.

La colaboración entre OpenAI y Cerebras se considera un indicador importante de este cambio en la industria, y también muestra que la competencia en IA está pasando gradualmente de “escala de entrenamiento” a “eficiencia en inferencia”.

(《All-In Podcast》Predice 2026: IA, cobre y electricidad se convierten en los nuevos ejes económicos globales)

Este artículo 《All-In Podcast》sobre el cambio en el campo de la IA, la reactivación de la guerra de chips de silicio y la oportunidad para nuevas startups, fue publicado originalmente en ABMedia.

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios