Según se informa, el Google de Alphabet Inc. estaría en conversaciones con Marvell Technology para desarrollar dos chips nuevos diseñados para mejorar la forma en que se ejecutan los modelos de inteligencia artificial.
Resumen
De acuerdo con un informe de The Information, citando a personas familiarizadas con el asunto, uno de los chips propuestos podría ser una unidad de procesamiento de memoria diseñada para funcionar junto con las unidades de procesamiento tensorial de Google, o TPU. Se espera que el segundo chip sea un nuevo TPU adaptado específicamente para ejecutar cargas de trabajo de IA de manera más eficiente.
La medida forma parte del esfuerzo de Google por posicionar sus chips internos como una alternativa a las GPU de Nvidia. La adopción de TPU ha estado contribuyendo al crecimiento de los ingresos de Google Cloud, ya que la empresa busca mostrar retornos por su gasto en infraestructura de IA.
El informe añadió que Google planea completar el diseño del chip centrado en memoria para el próximo año antes de pasar a las pruebas de producción. Al mismo tiempo, ha ampliado asociaciones con fabricantes de chips como Intel y Broadcom para respaldar la creciente demanda de infraestructura de IA.
A medida que Google acelera el desarrollo de sus aceleradores de IA, podría comenzar a desafiar el liderazgo de larga data de Nvidia en computación de alto rendimiento.
NVIDIA, por ejemplo, está avanzando su propia gama de chips de inferencia de IA, incluidos diseños que incorporan tecnología de Groq. La entrada de otro competidor a gran escala podría intensificar la carrera en hardware de IA y cambiar la forma en que las empresas obtienen potencia de cómputo para modelos.
Es probable que los inversores busquen mayor claridad cuando Google publique sus resultados del primer trimestre el 29 de abril. Se espera que el comunicado de resultados ofrezca señales sobre el desempeño en la nube, las tendencias publicitarias y qué tan agresivamente planea la empresa invertir en IA y semiconductores en los próximos trimestres.
Las conversaciones más recientes de chips de Google llegan mientras la empresa continúa ampliando sus capacidades de modelos de IA. A principios de este mes, la compañía presentó Gemma 4, una nueva familia de modelos abierta creada para el razonamiento avanzado y flujos de trabajo tipo agentes.
Gemma 4 está disponible en cuatro tamaños y está diseñada para manejar con mayor eficacia lógica de múltiples pasos y la resolución de problemas estructurada. También ha entregado resultados mejorados en puntos de referencia relacionados con tareas de matemáticas y seguimiento de instrucciones.
Los modelos incluyen funciones como llamada de funciones nativa, salidas JSON estructuradas e instrucciones a nivel de sistema, lo que permite a los desarrolladores construir sistemas autónomos que pueden conectarse con APIs y herramientas externas. También pueden generar código sin conexión, convirtiendo las máquinas locales en asistentes de codificación de IA capaces.
Juntas, las mejoras en el modelo y los planes de desarrollo de chips muestran cómo Google está alineando su pila de software y hardware a medida que la competencia en el ámbito de la IA continúa intensificándose.
Artículos relacionados
El juez desestima las acusaciones de fraude en la demanda de Elon Musk contra OpenAI; el caso avanza a juicio con dos acusaciones restantes
El CEO de OpenAI, Sam Altman, se disculpa por no reportar a la policía la cuenta prohibida del agresor de una escuela
Los EAU anuncian un cambio hacia un modelo de gobierno basado en IA en los próximos dos años
Plataforma de trading de IA Fere AI recauda $1.3M en financiación liderada por Ethereal Ventures
Google aumenta la apuesta con una inversión de 40 mil millones de dólares en Anthropic: primero paga 10 mil millones y luego libera 30 mil millones según el desempeño, con capacidad informática de 5 GW de TPU
Las OPIs de SpaceX, OpenAI y Anthropic podrían atraer más de $240 Billion, lo que potencialmente afectaría la liquidez del mercado cripto