Amazon incrementa su apuesta por Anthropic: 25 mil millones de dólares: 5 GW de capacidad informática, vinculación de AWS por un billón

Según el anuncio oficial de Anthropic y el comunicado de prensa oficial de Amazon, ambas partes amplían su cooperación estratégica el 4/20: Amazon añade una inversión adicional en Anthropic de hasta 25.000 millones de dólares, y Anthropic se compromete a que el gasto en AWS durante los próximos diez años superará los 100.000 millones de dólares, además de obtener hasta 5GW de capacidad de cómputo adicional, para entrenar y desplegar modelos de Claude.

Esto es la segunda gran expansión de alto impacto en la carrera armamentista de capacidad de cómputo de Anthropic, después del 4/7 en que Anthropic se asoció con Google y Broadcom para obtener 3,5GW de capacidad de cómputo TPU. También es la mayor promesa de un solo compromiso de Amazon hacia una empresa de IA. Como resultado, la valoración de Anthropic queda fijada en 380.000 millones de dólares.

Estructura de inversión: 5.000 millones primero desembolsados, 20.000 millones vinculados a hitos

La inversión de Amazon en esta ocasión se divide en dos fases: 5.000 millones de dólares se desembolsarán inmediatamente el día del anuncio, y los otros hasta 20.000 millones de dólares se liberarán por tramos una vez vinculados con “determinados hitos comerciales”. Sumados a los 8.000 millones de dólares invertidos previamente, el tope máximo de inversión acumulada de Amazon en Anthropic alcanzará los 33.000 millones de dólares.

Los 5.000 millones de dólares de esta ocasión se suscriben al precio de la valoración más reciente de Anthropic de 38.000 millones de dólares, y esta es la primera vez que dicha valoración queda confirmada por primera vez por un inversor de primera línea mediante un nuevo contrato.

Anthropic se compromete a un gasto de 100.000 millones de dólares en AWS en una década

Como contrapartida de la cooperación, Anthropic se compromete a que el gasto en AWS durante los próximos diez años superará los 100.000 millones de dólares. El alcance incluye los chips de IA personalizados Trainium de generaciones actuales y futuras, así como CPUs de uso general Graviton con “decenas de millones de núcleos”.

Andy Jassy (CEO de Amazon) dijo en el anuncio: «Anthropic se compromete a ejecutar modelos de lenguaje a gran escala en Trainium de AWS durante los próximos diez años, lo que refleja los avances compartidos que estamos logrando en la ruta de los chips personalizados». Dario Amodei (CEO de Anthropic) señaló: «Los usuarios nos dicen que Claude es cada vez más importante para su trabajo; debemos construir la infraestructura capaz de seguir el crecimiento de la demanda».

Hoja de ruta de capacidad de cómputo de 5GW: toda la serie Trainium2, 3 y 4 con contrato

El acuerdo de esta ocasión abarca tres generaciones de chips: Trainium2, Trainium3 y Trainium4. Anthropic también conserva la opción de comprar chips personalizados de generaciones posteriores. En cuanto a los plazos concretos, en el Q2 de 2026 habrá una puesta en línea a gran escala de la capacidad de Trainium2; la capacidad a gran escala de Trainium3 se irá habilitando de forma progresiva antes de que termine el año; y el acumulado anual de Trainium2 y Trainium3 en conjunto estará cerca de 1GW.

Project Rainier es el proyecto insignia de la cooperación existente entre ambas partes. Este clúster de entrenamiento actualmente ya ha desplegado alrededor de 500.000 chips Trainium2, que constituyen la infraestructura principal para el entrenamiento de los modelos de Claude.

De ingresos de 9.000 millones a 30.000 millones: el aumento explosivo de la demanda de Anthropic es la motivación para las negociaciones

En el anuncio, Anthropic revela de manera poco común la situación financiera propia: los ingresos anualizados del año en curso ya han superado los 30.000 millones de dólares. En comparación, los 9.000 millones de dólares de finales de 2025 se multiplicaron por más de tres en medio año. El número de clientes empresariales que ejecutan Claude en AWS ya ha superado las 100.000 empresas, y Claude es una de las familias de modelos con mayor uso en la plataforma Amazon Bedrock.

Anthropic también admite que el aumento explosivo de la demanda ha provocado que la infraestructura sufra presión en los periodos punta, y que la disponibilidad y el rendimiento se vean afectados. Esa es precisamente la motivación directa de la expansión a gran escala de capacidad de cómputo de esta vez. Recientemente, las controversias sobre el consumo de tokens del tokenizer de Claude Opus 4.7 y los ajustes en las limitaciones de uso también están relacionados con esta realidad de “infraestructura escasa”.

Vinculación de los tres grandes de capacidad de cómputo: avance simultáneo con AWS, Google y chips de fabricación propia

Sumado a la capacidad de cómputo TPU de 3,5GW de la cooperación entre Anthropic y Broadcom, Google anunciada a principios de abril, Anthropic actualmente ya tiene vinculadas simultáneamente dos rutas de chips personalizados: AWS Trainium y Google TPU, y conserva la opción a largo plazo de aceleradores de fabricación propia. Esto contrasta con la ruta de OpenAI, que va con “principal dependencia de Microsoft Azure y ampliación reciente de AWS”.

Para la cadena de suministro de semiconductores de Taiwán, la expansión a gran escala de Trainium2 a Trainium4 significa que Marvell, proveedores de memoria HBM y la avanzada tecnología de empaquetado de TSMC seguirán recibiendo y atendiendo pedidos de chips personalizados de AWS durante los próximos tres a cinco años.

Detrás de la competencia por la salida a bolsa, la solidez de la capacidad de cómputo

Este anuncio también refuerza la base narrativa sobre la salida a bolsa de Anthropic. Según informes recientes, OpenAI ha superado los 25.000 millones de dólares en ingresos anualizados, y el proceso para una IPO de Anthropic, que va detrás con 19.000 millones, revela que la brecha entre los ingresos de ambas se está reduciendo; según muestran los anuncios oficiales, los ingresos anualizados de Anthropic ya han llegado a 30.000 millones de dólares, y la brecha se reduce aún más.

Para los inversores, el significado del compromiso de esta vez de Amazon no está en el importe de una sola vez, sino en la “vinculación profunda de 100.000 millones de dólares de gasto en AWS durante los próximos diez años”, lo que permite al mercado fijar de forma clara el anclaje sobre el suministro de capacidad de cómputo de Anthropic y la estructura de costos a largo plazo. La capacidad de cómputo para el entrenamiento posterior de Mythos, el modelo con umbral alto Project Glasswing, y de la serie Claude 4.x, estará respaldada por estos nuevos 5GW de capacidad.

Este artículo “Amazon incrementa su inversión en Anthropic con 25.000 millones de dólares: 5GW de capacidad de cómputo y vinculación de 100.000 millones en AWS” apareció por primera vez en 鏈新聞 ABMedia.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

El CEO de OpenAI, Sam Altman, se disculpa por no reportar a la policía la cuenta prohibida del agresor de una escuela

Mensaje de Gate News, 25 de abril — El director ejecutivo de OpenAI, Sam Altman, se disculpó con la comunidad de Tamborine en Canadá por el fallo de la empresa al no notificar a la policía sobre una cuenta prohibida vinculada a Jesse Van Rootselaar, quien mató a ocho personas en una escuela en febrero antes de quitarse la vida. OpenAI

GateNewsHace23m

Los EAU anuncian un cambio hacia un modelo de gobierno basado en IA en los próximos dos años

Su Alteza el Jeque Mohammed bin Rashid Al Maktoum declaró que el objetivo era que el 50% de los sectores gubernamentales operaran a través de IA agentica autónoma. La transición también incluirá la formación de los empleados federales para “dominar la IA” y estará supervisada por el Jeque Mansour bin Zayed. Puntos Clave:

CoinpediaHace36m

Plataforma de trading de IA Fere AI recauda $1.3M en financiación liderada por Ethereal Ventures

Mensaje de Gate News, 25 de abril — Fere AI, una plataforma de comercio de activos digitales impulsada por IA, anunció la finalización de una ronda de financiación de $1.3 millones liderada por Ethereal Ventures, con la participación de Galaxy Vision Hill y Kosmos Ventures, según Globenewswire. La plataforma admite redes de cadena cruzada

GateNewshace1h

Google aumenta la apuesta con una inversión de 40 mil millones de dólares en Anthropic: primero paga 10 mil millones y luego libera 30 mil millones según el desempeño, con capacidad informática de 5 GW de TPU

Alphabet 增加对 Anthropic 的投资至 40 亿美元,分两阶段:第一笔 10 亿美元现金注入、估值 3800 亿美元;剩余 30 亿美元在业绩达标后分阶段释放。Google Cloud 在五年内提供 5 GW TPU 计算资源;同期 Amazon 也宣布最高 250 亿美元投资,显示 Anthropic 的算力与资本支持同步增强。

ChainNewsAbmediahace2h

Las OPIs de SpaceX, OpenAI y Anthropic podrían atraer más de $240 Billion, lo que potencialmente afectaría la liquidez del mercado cripto

Mensaje de Gate News, 25 de abril — Según informes del mercado, se espera que SpaceX salga a bolsa en junio con una meta de recaudación que superaría el récord de la OPI de $29 billion de Saudi Aramco, mientras que OpenAI y Anthropic planean cotizar en la segunda mitad de 2026. Se prevé que las tres empresas

GateNewshace3h

Baidu Intelligent Cloud lanza la API de DeepSeek-V4 en la plataforma Qianfan

Mensaje de Gate News, 25 de abril — Baidu Intelligent Cloud ha llevado DeepSeek-V4 a su plataforma Qianfan, ofreciendo acceso mediante API al modelo de IA recién lanzado. DeepSeek-V4 viene en dos versiones—DeepSeek-V4-Pro y DeepSeek-V4-Flash—y cuenta con una ventana de contexto ampliada de un millón de tokens. Las empresas y

GateNewshace3h
Comentar
0/400
Sin comentarios