Ark Invest : L’état actuel et l’avenir de l’infrastructure IA

来源:Frank Downing,Ark Invest;编译:金色财经Claw

Les dépenses en infrastructure AI connaissent une croissance explosive

Depuis le lancement de ChatGPT il y a trois ans, la demande de calcul accéléré a explosé. Le revenu annuel de Nvidia a bondi près de 8 fois, passant de 27 milliards de dollars en 2022 à 216 milliards de dollars en 2025, et le marché s’attend à une nouvelle augmentation de 62 % en 2026, atteignant 350 milliards de dollars. L’investissement mondial dans les systèmes de centres de données (y compris le matériel de calcul, de réseau et de stockage) a vu sa croissance passer d’une moyenne annuelle de 5 % sur dix ans jusqu’en 2022 à 30 % au cours des trois dernières années, et devrait encore augmenter de plus de 30 % en 2026, atteignant 653 milliards de dollars.

Les recherches d’ARK montrent que le calcul accéléré, propulsé par les GPU et les circuits intégrés spécifiques à l’IA (ASIC), domine désormais les investissements dans les serveurs, représentant 86 % des ventes de serveurs de calcul.

La chute des coûts stimule l’adoption de l’accélération

Le moteur de l’augmentation continue des dépenses en infrastructure de calcul accéléré nécessaires pour faire fonctionner les modèles d’IA provient de l’expansion continue des scénarios d’utilisation de l’IA générative tant du côté des consommateurs que des entreprises, ainsi que de la nécessité de former des modèles de base plus intelligents dans la quête de “super-intelligence”.

La chute rapide des coûts accélère davantage la croissance de la demande. Selon nos recherches, le coût de l’entraînement de l’IA diminue de 75 % par an. Les coûts d’inférence diminuent encore plus rapidement - dans les benchmarks suivis par Artificial Analysis, les modèles notés à plus de 50 % affichent une diminution annuelle médiane des coûts allant jusqu’à 95 %.

Deux forces entraînent ensemble une forte baisse des coûts : d’une part, les leaders de l’industrie, représentés par Nvidia, lancent chaque année de nouveaux produits, apportant des améliorations de performance matérielle ; d’autre part, les améliorations algorithmiques au niveau logiciel augmentent l’efficacité de l’entraînement et de l’inférence sur le même matériel.

Les consommateurs et les entreprises envoient des signaux de demande forts

L’adoption de l’IA par les consommateurs est nettement plus rapide que celle de l’internet à l’époque. Le taux de pénétration de l’IA s’est étendu à environ 20 % en trois ans, soit plus de deux fois la vitesse à laquelle les consommateurs se sont tournés vers l’internet.

La demande des entreprises croît également à un rythme incroyable. Par exemple, selon les données d’OpenRouter, la demande de tokens a augmenté de 28 fois depuis décembre 2024.

Au cours des deux dernières années, le laboratoire d’IA le plus prisé par les entreprises, Anthropic, a enregistré une croissance de revenus incroyable d’environ 100 fois - passant d’un revenu d’exploitation annualisé de 100 millions de dollars fin 2023 à une estimation de 8 à 10 milliards de dollars fin 2025. La dynamique de croissance d’Anthropic se poursuit en 2026, avec l’annonce en février de cette année d’un revenu annualisé atteignant 14 milliards de dollars, et la finalisation d’un tour de financement de 30 milliards de dollars, portant sa valorisation à 380 milliards de dollars.

OpenAI, qui concurrence simultanément sur les deux fronts des consommateurs et des entreprises, a également connu une forte croissance parmi les utilisateurs d’entreprise, avec 1 million de clients entreprises à la fin de novembre 2025. Selon la directrice financière Sarah Friar, la croissance du revenu d’OpenAI dans le secteur des entreprises dépasse celle de son activité consommateur, et devrait représenter 50 % du revenu total de l’entreprise en 2026. Friar a également expliqué dans un blog en janvier 2026 les raisons d’investir davantage dans l’infrastructure : au cours des trois dernières années, les revenus d’OpenAI ont augmenté proportionnellement à sa capacité de calcul.

Le marché privé finance la construction d’IA

Pour répondre à ce fort signal de demande, des investissements massifs dans l’infrastructure sont devenus nécessaires. Selon les données de Crunchbase, le financement des laboratoires privés d’IA dépassera 200 milliards de dollars en 2025, dont environ 80 milliards de dollars iront à des développeurs de modèles de base tels qu’OpenAI, Anthropic et xAI. Sur le marché public, les entreprises de cloud computing hyperscale utilisent leurs réserves de liquidités et cherchent d’autres moyens de financement pour soutenir leurs plans de dépenses en capital pour l’IA - en 2026, ces dépenses pourraient atteindre 700 milliards de dollars.

Il a été rapporté que l’accord de 30 milliards de dollars entre Meta et Blue Owl est la plus grande transaction de capital privé de l’histoire. Cet accord est construit sous forme de coentreprise, principalement financée par la dette, et sa structure de véhicule à but spécifique (SPV) évitera que la dette du projet n’apparaisse au bilan de Meta, ce qui a suscité une controverse considérable.

AMD et d’autres fabricants deviennent de sérieux challengers pour Nvidia

En dehors des centres de données physiques, les puces de calcul ont toujours été au cœur des dépenses en capital pour l’IA. Nvidia a toujours été à l’avant-garde de l’ère du calcul accéléré, mais aujourd’hui, le plus grand acheteur de puces AI cherche à maximiser la puissance de calcul par dollar investi. Depuis son acquisition d’ATI Technologies en 2006, Advanced Micro Devices (AMD) a été en concurrence avec Nvidia sur le marché de consommation des GPU, et est maintenant devenu un nouvel acteur sur le marché des entreprises. Depuis le lancement de la série de processeurs EPYC en 2017, la part de marché d’AMD dans le marché des CPU de serveurs a également considérablement augmenté, passant de presque zéro en 2017 à 40 % en 2025.

En termes d’inférence de petits modèles, les GPU AMD ont atteint des performances comparables à celles de Nvidia en termes de coût total de possession (TCO). Le TCO prend en compte le coût d’achat initial des puces (dépenses d’investissement) et les coûts opérationnels des puces pendant leur durée de vie (dépenses opérationnelles). Les benchmarks de performance utilisent l’indicateur InferenceMax de SemiAnalysis, mesurant le nombre de tokens traités par GPU par seconde lors de l’optimisation du débit, tandis que les benchmarks de coût sont basés sur les estimations de dépenses d’investissement et d’exploitation par heure de SemiAnalysis.

Bien qu’AMD ait “rattrapé” Nvidia en termes de performances sur de petits modèles, Nvidia conserve un avantage significatif sur les performances des grands modèles, comme le montre le graphique ci-dessous.

La solution de rack de Nvidia, Grace Blackwell, connecte 72 GPU Grace Blackwell (GB200) pour fonctionner comme un GPU de très grande taille avec mémoire partagée. Cette interconnexion étroite entre les puces renforce la capacité d’inférence des grands modèles - ces modèles nécessitent une répartition des poids du modèle sur plusieurs GPU, demandant plus de bande passante de communication que les petits modèles. Pour réduire l’écart avant le lancement de Nvidia Vera Rubin, la solution de rack d’AMD est prévue pour la seconde moitié de 2026. Jusqu’à présent, AMD a remporté des commandes auprès de clients tels que Microsoft, Meta, OpenAI, xAI et Oracle.

Les fournisseurs de cloud hyperscale mènent la révolution des puces personnalisées

En plus des fournisseurs de GPU commerciaux, les fournisseurs de cloud hyperscale et les laboratoires d’IA cherchent également à contrôler l’influence de Nvidia et à réduire les coûts de calcul AI en développant leurs propres puces. Depuis plus de dix ans, Google conçoit ses propres circuits intégrés spécifiques à l’IA - les unités de traitement tensoriel (TPU), pour exécuter des modèles de recommandation pour ses activités de recherche, et a optimisé les performances pour l’IA générative sur sa dernière génération de TPU v7. SemiAnalysis estime que Google, en utilisant ses TPU internes pour traiter des charges de travail, peut réduire le coût par calcul de 62 % par rapport à Nvidia. Anthropic et Meta utilisent les TPU de Google pour étendre leurs capacités de calcul, ce qui semble confirmer que l’estimation de 62 % est proche de la réalité.

Les puces Trainium d’Amazon semblent être une solution avancée. Après avoir acquis Annapurna Labs en 2015, Amazon a été le premier à développer des puces personnalisées pour son activité cloud, en étendant les CPU Graviton basés sur l’architecture ARM et les unités de traitement de données Nitro (DPU), soutenant une puissance de calcul essentielle pour Amazon Web Services (AWS). Amazon a récemment annoncé qu’en 2025, Graviton a fourni plus de la moitié de la nouvelle capacité CPU d’AWS pour la troisième année consécutive. En plus d’utiliser des TPU, Anthropic a également choisi AWS et Trainium comme sa plateforme d’entraînement préférée.

Microsoft n’est entré dans le domaine des puces personnalisées qu’en 2023, en lançant l’accélérateur AI Maia 100, mais ne s’est pas concentré sur l’IA générative à ce moment-là ; son deuxième produit est actuellement lancé, se concentrant sur les scénarios d’inférence AI.

Broadcom domine le marché des services de puces personnalisées

Google et Amazon se concentrent sur la conception de puces en amont (architecture et fonctionnalités), tandis que les partenaires de conception en aval sont responsables de la transformation de leur logique en puces, de la gestion des emballages avancés et de la coordination de la production avec des fonderies comme TSMC. Dans un contexte où l’activité de fonderie d’Intel fait face à des défis, TSMC est devenu le partenaire privilégié pour la plupart des projets de puces AI majeurs, tandis que Broadcom est devenu le partenaire de conception en aval leader pour le TPU de Google, le MTIA de Meta et les puces personnalisées qu’OpenAI lancera en 2026. Apple a toujours achevé l’ensemble du processus de conception de ses puces pour smartphones et PC, mais il a été rapporté qu’elle pourrait également être en train de collaborer avec Broadcom pour développer des puces AI. Citigroup prévoit que les revenus AI de Broadcom pourraient augmenter cinq fois au cours des deux prochaines années, passant de 20 milliards de dollars en 2025 à 100 milliards de dollars en 2027.

Le chemin de développement de Trainium d’Amazon est assez particulier parmi ses pairs - il a été rapporté que Trainium 2 a collaboré avec Marvell, mais en raison de la mauvaise exécution de Marvell, Trainium 3 et Trainium 4 ont changé de partenaire pour collaborer avec Alchip. La capacité d’Amazon à changer de partenaire en aval indique qu’il existe effectivement un risque pour des entreprises comme Broadcom en raison de l’intégration verticale. Il est à noter qu’Apple et Tesla collaborent directement avec des fonderies. Google pourrait également procéder de la même manière pour son TPU v8 - ce produit a deux SKU, l’un co-conçu avec Broadcom et l’autre conçu et contrôlé en interne par Google avec le soutien de MediaTek.

L’activité des startups de puces se renforce

Nos recherches montrent qu’un certain nombre de startups tentant de nouveaux paradigmes d’architecture pourraient davantage défier la position des fabricants de puces existants. Cerebras est connu pour son moteur de wafer-scale (une puce géante de la taille d’une boîte de pizza fabriquée à partir d’un seul wafer de silicium), offrant la vitesse de traitement de tokens par seconde la plus rapide sur le marché, et prévoit de lancer cette année. La société a récemment annoncé un partenariat avec OpenAI pour lancer le modèle de programmation à grande vitesse Codex Spark, après que les deux parties aient convenu d’une collaboration en janvier de cette année. Groq, également connu pour sa performance exceptionnelle en termes de vitesse de traitement de tokens par seconde, a récemment signé un accord de licence de propriété intellectuelle non exclusive d’une valeur de 20 milliards de dollars avec Nvidia, incluant 90 % des employés de Groq, ainsi que le PDG et cofondateur de TPU Jonathan Ross. Il s’agit en réalité d’une acquisition de l’équipe et de la technologie de Groq, une structure de transaction de plus en plus populaire sur le marché des fusions et acquisitions, car les géants de la technologie cherchent à éviter les retards liés à l’examen réglementaire. En ce qui concerne d’autres dynamiques d’acquisition, Intel a récemment établi un partenariat avec SambaNova après des négociations d’acquisition apparemment infructueuses. Intel a effectué quatre acquisitions dans le domaine de l’IA depuis 2014, mais n’a toujours pas réussi à lancer un produit AI largement reconnu sur le marché, ce qui est assez décevant.

Perspectives : une taille de 14 000 milliards de dollars d’ici 2030

Selon nos recherches, la croissance continue de la demande et l’amélioration des performances au cours des cinq prochaines années stimuleront le développement des logiciels et des services cloud pour l’IA, avec des dépenses en infrastructure AI tripliées au cours des cinq prochaines années - passant de 500 milliards de dollars en 2025 à près de 1 500 milliards de dollars en 2030.

Notre prévision est basée sur l’observation historique de l’investissement dans les systèmes de centres de données par rapport aux revenus des logiciels. Au début des années 2010, avec l’essor du cloud computing, les investissements dans les systèmes représentaient environ 50 % des dépenses mondiales en logiciels. En 2021, une surenchère d’investissements après la pandémie de COVID-19 et l’optimisation des clients ont réduit la part des investissements dans les systèmes à un peu plus de 20 %. Notre prévision de 1 500 milliards de dollars suppose que l’investissement en 2030 sera de 20 % de notre scénario neutre de dépenses mondiales en logiciels (c’est-à-dire 7 000 milliards de dollars en 2030), un niveau que nous avons déjà détaillé dans un blog l’année dernière. Nous pensons que le niveau de 20 % prend déjà en compte les risques d’investissement excessif potentiels avant 2030, ainsi que la possibilité que la croissance des revenus des logiciels soit inférieure au scénario neutre - dans ce dernier cas, nous pensons que l’investissement dans l’infrastructure continuera à croître rapidement, tout comme au début des années 2010.

Avec la demande de puissance de calcul alimentée par l’IA qui continue de croître, nous prévoyons que la part des puces personnalisées dans les dépenses de calcul continuera d’augmenter - car le temps et l’argent nécessaires pour concevoir des puces spécifiques à des charges de travail particulières deviendront de plus en plus importants en termes d’avantages de performance par dollar à l’échelle. Nous pensons qu’en 2030, les ASIC personnalisés pourraient représenter plus d’un tiers du marché du calcul.

Dans l’ensemble, nos recherches montrent que l’infrastructure en cours de construction n’est pas une bulle sur le point d’éclater, mais constitue la base d’une transformation de plateforme sans précédent. ARK prévoit que les dépenses annuelles en infrastructure AI atteindront près de 1 500 milliards de dollars d’ici 2030, un marché alimenté par une demande réelle et en accélération provenant des consommateurs et des entreprises, tandis que la baisse continue des coûts valide et libère de nouveaux scénarios d’utilisation. Nous croyons que les entreprises qui émergeront au cours des cinq prochaines années seront celles qui pourront concevoir les puces les plus efficaces, construire les modèles les plus puissants et déployer les deux à grande échelle.

Comme l’a déclaré le PDG de Nvidia, Jensen Huang, lors de la conférence téléphonique sur les résultats du quatrième trimestre de l’exercice 2026, les véritables agents AI pratiques ne commencent à se déployer à grande échelle que depuis quelques mois. Ils consomment énormément de tokens, mais leur capacité dépasse de loin celle des produits AI auxquels la plupart des utilisateurs étaient habitués auparavant. L’extension de ces agents à des millions d’entreprises sera un travail extrêmement intensif en calcul, et à notre avis, les gains de productivité en découleront pleinement justifiés par ces investissements.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler