サスケハナ・インベストメント・リサーチは4月23日、同社のQ1 2026決算発表に先立ち、エージェンティック(自律型)人工知能のワークロードによってもたらされる強いサーバーCPU需要を理由に、インテルの目標株価を$80 株当たりに引き上げた。新しい目標株価は、インテルの火曜の終値(1株当たり$63.81)から25%の上振れを意味する。アナリストのクリストファー・ロランド氏の顧客レポートによると、供給制約は2026年Q1にピークを迎え、2026年Q2に緩和すると見込まれており、その結果、同年残りの期間にわたって季節性を上回る業績を支えるという。
サスケハナは、インテルのQ1 2026の結果が、概ねまたはわずかに予想を上回ると見ている。主因は、より強いサーバーCPU需要だが、弱いPC向けODM (ODM)出荷によって一部相殺される。ロランド氏は、Q1のODM出荷のトレンドが従来見込みより弱く、クライアント・コンピューティング・グループ$25 CCG$60 セグメントに下振れリスクを生むと指摘した。アナリストのCCG見通しは、13%の期末(連続)下落という市場コンセンサスの期待を下回る。
サーバーの好調にもかかわらず、ロランド氏はPCの組み立てを制約するメモリチップ不足を理由に、インテルに対して「ニュートラル」評価を維持している。ストレージ・チップ不足が続くことで、ODM出荷は2026年を通じて二桁台の減少になると予想する。インテルのファウンドリ事業について、ロランド氏は、SpaceXおよびTeslaとともにTerafabプロジェクトに参加するという同社の決定を「興味深い」と評し、インテルの14A製造プロセスの外部顧客による採用について楽観的だとして、一部の提携を「非常に活発」と表現した。
過去2年間、人工知能業界の物語はGPUの能力に支配されてきた――このダイナミクスが、NVIDIAの株を過去最高値へ押し上げた。CPUはAIデータセンターでのサポート役として機能し、主に学習フェーズで汎用的な制御や基本的なスケジューリングを担い、最も計算負荷の高い行列演算はGPUの並列計算能力が扱っていた。
この状況は、エージェンティックAIと強化学習ワークロードの登場によって根本的に変わりつつある。単純なテキスト生成と異なり、エージェンティックAIは1つのユーザー要求を完全なワークフローへ分解する。モデルは単一の答えを生成するのではなく、プロセス全体を実行する。AIが「一度計算して終える」から「ワークフローを実行する」へ移行すると、CPUへのシステム依存は大幅に高まる。多くの重要なタスクはGPUでの実行に適していない。タスクのオーケストレーション、スレッドのスケジューリング、プロセス管理、サンドボックス実行、前処理・後処理、キャッシュのコーディネーション、状態の維持はいずれも従来型のCPUワークロードだ。複数エージェントが同時に動き、ツールを呼び出し、状態を共有するマルチエージェントのシナリオでは、CPUコア数、スレッド数、シングルコア性能、メモリ管理能力への要求が大幅に増大する。
SemiAnalysisのチーフアナリスト、ディラン・パテル氏は4月8日のインタビューで、AIワークロードのパラダイムが単純なテキスト生成から複雑なエージェンティックおよび強化学習のアプリケーションへ移行しており、CPUには「極めて深刻な供給能力不足」があると述べた。この見方はTrendForceの調査によって裏付けられている。現在のAIデータセンターにおけるCPU対GPU比率は概ね1:4〜1:8だが、エージェンティックAIの時代にはこの比率が1:1〜1:2へシフトする見通しだ。
構造的な転換が、目覚ましい市場成長を押し上げている。Creative Strategiesは、データセンター向けCPU市場が2026年の-9223372036854775808億ドルから2030年までに-9223372036854775808億ドルへ拡大すると予測している。エージェンティックAI関連の需要を織り込むと、アドレス可能市場は-9223372036854775808億ドルに近づく可能性がある。
この再評価は、供給側の反応も引き起こした。インテルとAMDはいずれも、2026年Q1末に、対象となる一部CPU製品ラインで値上げを発表した。さらに重要なのは、2026年3月にNVIDIAとArmがともにサーバーCPU市場へ参入すると発表したことだ。GPU大手とIPライセンシング企業が同じ月に同一の戦略的な動きを取るのは偶然ではなく、むしろ集中的な市場シグナルだ。
インテルのXeonプロセッサはかつて、データセンターCPU市場の95%超を占めていた。この優位性は2021年に侵食が始まった。インテル7プロセスの歩留まり問題で、Xeon Sapphire Rapidsが約2年遅れ、AMDのEPYC Milanに市場の空白を開いたからだ。
インテルは2026年に2つのフラッグシップ製品を計画している。ダークモント・アーキテクチャに基づくXeon 6+ $100 Clearwater Forest(は、288コア、288スレッドで、熱設計電力)TDP(が約450ワット。パンサーコーブ-Xアーキテクチャに基づくXeon 7 )Diamond Rapids(は、最大256コア、256スレッドで、TDPは650ワット。両製品はインテルの最先端の18Aプロセスで製造され、Foveros Directのハイブリッドボンディング技術を初めて導入する。しかしTrendForceは、進行中の18Aプロセスの歩留まり課題により、両製品の量産開始時期が2027年まで押しやられる可能性があると警告している。
AMDの競争上の軌道は、より安定しているようだ。2026年のフラッグシップEPYC VeniceはTSMCのN2プロセス(Zen 6アーキテクチャ)を採用し、高度なCoWoS-LおよびSoICパッケージングを組み合わせる。256コア、512スレッドを同時マルチスレッディング )SMT(で実現――現在の市場で最高のスレッド数だ。TrendForceは、AMDが2026年を通じてインテルから引き続きシェアを獲得すると見ている。
インテルやAMDを超えて、非従来型の競合が前例のない速さでサーバーCPU市場に参入し、競争力学を根本から再構築しようとしている。
2026年3月、NVIDIAは顧客のより柔軟なCPU対GPU構成に対する需要に対応するため、Vera CPUをスタンドアロン製品として発表した。VeraはNVIDIA独自のOlympusアーキテクチャを採用しており、TSMCのN3プロセスとCoWoS-Rパッケージングに基づく。88コアと176スレッドを、1.8テラバイト毎秒のNVLink-C2Cインターコネクト帯域幅とともに提供し、NVIDIAのGPUで共有メモリを可能にする。NVIDIAはまた、Vera CPUラックを導入し、1ラックあたり256CPUを統合して、合計22,528コア、45,056スレッド、集計で400テラバイトのメモリを実現する。
また2026年3月に、Armは最初の自社製CPU製品であるArm AGI CPUを発表し、純粋なライセンス事業に35年の区切りをつけた。TSMCのN3プロセスに、Neoverse V3アーキテクチャをベースとして構築されたAGI CPUは、300ワットTDPで136コア、136スレッドを提供し、DDR5-8800メモリとPCIe Gen6をサポートする。Armは同時に2種類のラック構成を投入した。空冷版は60台のAGI CPU )8,160コア、約180テラバイトのメモリ(を統合し、液冷版は336台のCPU )45,696コア、1ペタバイトのメモリ(をサポートする。
主要なクラウドサービス事業者は、自社のCPU開発を加速させている。Amazon Web Servicesは2025年12月にTSMCのN3プロセス)で、Graviton5を192コア、192スレッドとしてリリースし、AI計算コストを削減するために、自社のTrainium 3 AI ASICと併用して導入した。Microsoftは2025年11月に、N3プロセス(上でCobalt 200を132コア、132スレッドとして投入した。Googleは2026年にベアメタルのAxion C4A.metalおよび次世代のAxion N4Aをリリースする計画で、コストと性能の最適化を強調している。
インテルの最近の株価パフォーマンスは目を引き、エージェンティックAIによる強いサーバーCPU需要はポジティブな見通しの実体ある根拠を提供している一方で、アナリストのムードは、競争の激化とインテルの継続的な業務上の課題の中で依然として慎重だ。メディアが追跡している当該株をカバーする52人のアナリストのうち、「買い」評価を付けているのは10人のみで、6人が「売り」評価を付けている――売り評価の集中はS&P 500の平均を2倍以上上回る。インテルの現在の取引価格は、コンセンサスのアナリスト目標価格に対して27%のプレミアムを要求しており、株があまりに急速に評価されてきたことを示唆している。株価の現在の株価収益率(PER)は90倍を超えており、史上最高水準で、ドットコム・バブル期のピーク評価を50%上回る。半導体セクターの平均P/Eは約21倍だ。
Q: 過去2年間、AIインフラがGPUに支配されていたのに、なぜサーバーCPU需要が急増しているのですか?
AIワークロードは、GPUの行列演算によって支配される単純なテキスト生成)dominated by GPU matrix operations(から、エージェンティックAIおよび強化学習のワークフローへ移行しつつあり、タスクのオーケストレーション、スレッドのスケジューリング、プロセス管理、状態の維持のためにCPUの広範な関与が必要になる。この構造的なシフトにより、AIデータセンターにおけるCPU対GPU比率は1:4〜1:8から1:1〜1:2へ上昇する見込みだ。
Q: サーバーCPU市場におけるインテルの主な競争リスクは何ですか?
インテルは18Aプロセス・ノードでの実行リスクに直面しており、TrendForceは、2026年に計画されているXeon 6+とXeon 7の両フラッグシップ製品はいずれも歩留まり課題により、量産開始が2027年まで遅れる可能性があると警告している。一方でAMDのEPYC Veniceは、より成熟したTSMCのN2プロセスを使って2026年に向けて順調に進んでおり、新規参入企業(NVIDIA、Arm、クラウド事業者を含む)もすべてTSMCのN3プロセス上で競争力のある製品を立ち上げている。
Q: 目標株価を$80に引き上げたにもかかわらず、なぜサスケハナはインテルをニュートラル評価に維持しているのですか?
サーバーCPU需要は強いものの、サスケハナは、メモリチップ不足がPCの組み立てを制約しており、ODM出荷は2026年を通じて二桁台の減少になると見ていると述べている。ニュートラル評価はバランスの取れた見方を反映している。つまり、サーバーのポジティブなファンダメンタルズが、PCセグメントの弱さと競争上の実行リスクによって相殺されるということだ。