Google busca ampliar el ecosistema de chips de IA con Marvell mientras se intensifica la competencia con Nvidia

Según se informa, el Google de Alphabet Inc. estaría en conversaciones con Marvell Technology para desarrollar dos chips nuevos diseñados para mejorar la forma en que se ejecutan los modelos de inteligencia artificial.
Resumen

  • Google está en conversaciones con Marvell para desarrollar dos chips enfocados en IA, incluida una unidad de procesamiento de memoria y un TPU de próxima generación, para mejorar la eficiencia de los modelos.
  • El impulso forma parte del esfuerzo de Google por posicionar sus TPU como una alternativa a las GPU de Nvidia, mientras amplía las asociaciones con Intel y Broadcom.
  • La medida llega junto con el lanzamiento de Gemma 4, ya que Google alinea sus modelos de IA y su pila de hardware en medio de una competencia cada vez más intensa en la computación de IA.

De acuerdo con un informe de The Information, citando a personas familiarizadas con el asunto, uno de los chips propuestos podría ser una unidad de procesamiento de memoria diseñada para funcionar junto con las unidades de procesamiento tensorial de Google, o TPU. Se espera que el segundo chip sea un nuevo TPU adaptado específicamente para ejecutar cargas de trabajo de IA de manera más eficiente.

La medida forma parte del esfuerzo de Google por posicionar sus chips internos como una alternativa a las GPU de Nvidia. La adopción de TPU ha estado contribuyendo al crecimiento de los ingresos de Google Cloud, ya que la empresa busca mostrar retornos por su gasto en infraestructura de IA.

El informe añadió que Google planea completar el diseño del chip centrado en memoria para el próximo año antes de pasar a las pruebas de producción. Al mismo tiempo, ha ampliado asociaciones con fabricantes de chips como Intel y Broadcom para respaldar la creciente demanda de infraestructura de IA.

Competencia creciente en hardware de IA

A medida que Google acelera el desarrollo de sus aceleradores de IA, podría comenzar a desafiar el liderazgo de larga data de Nvidia en computación de alto rendimiento.

NVIDIA, por ejemplo, está avanzando su propia gama de chips de inferencia de IA, incluidos diseños que incorporan tecnología de Groq. La entrada de otro competidor a gran escala podría intensificar la carrera en hardware de IA y cambiar la forma en que las empresas obtienen potencia de cómputo para modelos.

Es probable que los inversores busquen mayor claridad cuando Google publique sus resultados del primer trimestre el 29 de abril. Se espera que el comunicado de resultados ofrezca señales sobre el desempeño en la nube, las tendencias publicitarias y qué tan agresivamente planea la empresa invertir en IA y semiconductores en los próximos trimestres.

Los avances de los modelos de IA respaldan el empuje de hardware

Las conversaciones más recientes de chips de Google llegan mientras la empresa continúa ampliando sus capacidades de modelos de IA. A principios de este mes, la compañía presentó Gemma 4, una nueva familia de modelos abierta creada para el razonamiento avanzado y flujos de trabajo tipo agentes.

Gemma 4 está disponible en cuatro tamaños y está diseñada para manejar con mayor eficacia lógica de múltiples pasos y la resolución de problemas estructurada. También ha entregado resultados mejorados en puntos de referencia relacionados con tareas de matemáticas y seguimiento de instrucciones.

Los modelos incluyen funciones como llamada de funciones nativa, salidas JSON estructuradas e instrucciones a nivel de sistema, lo que permite a los desarrolladores construir sistemas autónomos que pueden conectarse con APIs y herramientas externas. También pueden generar código sin conexión, convirtiendo las máquinas locales en asistentes de codificación de IA capaces.

Juntas, las mejoras en el modelo y los planes de desarrollo de chips muestran cómo Google está alineando su pila de software y hardware a medida que la competencia en el ámbito de la IA continúa intensificándose.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

Google aumenta la apuesta con una inversión de 40 mil millones de dólares en Anthropic: primero paga 10 mil millones y luego libera 30 mil millones según el desempeño, con capacidad informática de 5 GW de TPU

Alphabet 增加对 Anthropic 的投资至 40 亿美元,分两阶段:第一笔 10 亿美元现金注入、估值 3800 亿美元;剩余 30 亿美元在业绩达标后分阶段释放。Google Cloud 在五年内提供 5 GW TPU 计算资源;同期 Amazon 也宣布最高 250 亿美元投资,显示 Anthropic 的算力与资本支持同步增强。

ChainNewsAbmediaHace5m

Las OPIs de SpaceX, OpenAI y Anthropic podrían atraer más de $240 Billion, lo que potencialmente afectaría la liquidez del mercado cripto

Mensaje de Gate News, 25 de abril — Según informes del mercado, se espera que SpaceX salga a bolsa en junio con una meta de recaudación que superaría el récord de la OPI de $29 billion de Saudi Aramco, mientras que OpenAI y Anthropic planean cotizar en la segunda mitad de 2026. Se prevé que las tres empresas

GateNewshace1h

DeepSeek-V4 en versión preliminar publicado con ventana de contexto de 1M; la solución de IA de Huawei DCS brinda soporte completo

Mensaje de Gate News, 25 de abril — La versión preliminar de DeepSeek-V4 se ha lanzado oficialmente y se ha publicado como código abierto, con una ventana de contexto ampliada de 1 millón de tokens e introduciendo KV Cache con ventana deslizante mediante algoritmos de compresión para reducir la complejidad computacional de la Atención y la presión del ancho de banda de memoria.

GateNewshace1h

Regresa la escasez de GPU mientras Microsoft y Amazon ajustan el suministro; las startups de IA enfrentan un aumento del 32% en precios y colas hasta fin de año

Mensaje de Gate News, 25 de abril — Vuelve a aparecer una escasez de GPU mientras los principales proveedores de nube, incluidos Microsoft y Amazon, concentran capacidad de cómputo en equipos internos y grandes clientes como OpenAI y Anthropic, dejando que las empresas emergentes de IA más pequeñas enfrenten aumentos de precios, tiempos de espera prolongados y términos de contrato más estrictos.

GateNewshace3h

Nvidia在Blackwell基础设施上将OpenAI Codex AI代理部署至全体员工

消息快报,4月25日——据首席执行官Jensen Huang和OpenAI首席执行官Sam Altman的内部沟通内容,Nvidia已在成功试点后,将OpenAI的Codex这一由GPT-5.5驱动的AI代理面向其全体员工部署,试点约涉及10,000名员工。 Codex旨在用于

GateNewshace4h

El Departamento de Estado de EE. UU. advierte sobre la destilación del modelo de IA DeepSeek

El Departamento de Estado de EE. UU. emitió un cable el 24 de abril a las misiones diplomáticas y consulares de todo el mundo, advirtiendo a gobiernos extranjeros sobre los esfuerzos de China por copiar sistemas de IA estadounidenses mediante destilación, según Reuters. El cable

CryptoFrontierhace4h
Comentar
0/400
Sin comentarios