The AI arms race is not just about GPUs! Meta teams up with Amazon Graviton to challenge x86 hegemony

智通財經
2026.04.24 13:30

Meta 與亞馬遜達成數十億美元協議,租用 Graviton 系列 ARM 架構中央處理器,用於其新建的 AI 數據中心,以滿足社交媒體用户的 AI 推理需求。亞馬遜副總裁 Nafea Bshara 表示,此協議將使 Meta 長期使用 Graviton CPU,強調 CPU 在 AI 推理中的重要性。近年來,亞馬遜在數據中心主要使用 Graviton 處理器,逐步減少對英特爾硬件的依賴。

智通財經 APP 獲悉,美國雲計算與電商巨頭亞馬遜 (AMZN.US) 與 Facebook 母公司 Meta Platforms Inc.(META.US) 已達成一項數十億美元的長期協議,這家社交媒體巨頭將租用數十萬顆亞馬遜自研推出的 ARM 架構通用數據中心服務器 CPU 芯片,用於其正在大規模新建的 AI 數據中心,以滿足 Facebook 以及 Instagram 等社交媒體用户們的天量級別人工智能推理端工作負載。

亞馬遜副總裁,同時也是該公司 Annapurna Labs 芯片部門聯合創始人 Nafea Bshara 在接受採訪時表示,這項多年期協議將讓 Meta 獲得 Graviton 系列數據中心服務器級別中央處理器的長期使用權。

能夠生成文本或進行天量級別推理的人工智能大語言模型,通常是使用英偉達主導的 AI GPU 或者谷歌 TPU AI 算力集羣來進行訓練構建或者完整運行推理端 AI 工作負載。但 AI 大模型開發者以及 B 端或者 C 端 AI 應用平台的用户們同樣迫切需要大型 AI 數據中心端 Graviton 這類通用中央處理器 (即數據中心服務器 CPU) 來執行諸多調度與協調類型任務,其中重點包括在模型訓練完成後生成對查詢的回應以及 AI 智能體代理式工作流進程,這一過程通常被稱為 “AI 推理”。“如果旁邊沒有 CPU,GPU 就毫無用處,” Bshara 表示。

GPU/ASIC 之外的 AI 軍備競賽:Meta 牽手亞馬遜,CPU 成為推理時代關鍵拼圖

近年來,亞馬遜在其數據中心部署的大多數 CPU 都是 Graviton 中央處理器;對於一家曾嚴重依賴英特爾 (INTC.US) 硬件體系的公司而言,這是一項巨大成就。Graviton 是亞馬遜旗下 AWS 雲計算業務部門自研的 ARM 架構通用服務器 CPU,主要承擔 AI 數據中心裏的通用計算、調度、數據預處理/後處理、服務編排,以及部分 AI 推理相關調度與協調工作。

亞馬遜首席執行官 Andy Jassy 最近表示,該公司的數據中心芯片業務部門正朝着一年內實現 200 億美元銷售額的方向堅定前進,並且高管們正在考慮積極出售這些亞馬遜自研的數據中心相關芯片,供像 Meta 以及 CoreWeave 這樣的其他科技公司在其雲計算服務器羣中長期租賃或者長期按需使用————迄今為止,這些芯片只存在於亞馬遜大型雲計算數據中心,。

週五宣佈的 Meta 與亞馬遜重磅交易,可謂是大型科技公司之間最新一宗長期且大規模合作;當前,全球科技行業正爭相確保獲得足夠多的 AI 算力相關的 CPU/GPU/ASIC AI 處理器設備集羣,以驅動新的和正在研發的未來 AI 大模型。OpenAI 和 Anthropic 已表示,它們正在增加對亞馬遜自研 Trainium AI 芯片的使用;Trainium 是亞馬遜 AWS 獨家研發的核心性能指標對標英偉達 AI GPU 算力體系的高性價比 AI ASIC 技術路線模式的替代型 AI 算力基礎設施方案,並且已開始向 OpenAI 和 Anthropic 以及 Meta 積極營銷該公司 Trainium 等一系列自研 AI 芯片算力系統。

Meta 在為其愈發龐大的 AI 工作負載獲取芯片方面採取了廣泛佈局,並稱這樣做是為了實現合作伙伴多元化,以保持靈活性。該公司已與英偉達和 AMD 等芯片巨頭們簽署了一系列大型 AI 算力基礎設施供給協議。

Meta 同意斥資數十億美元購買英偉達和 AMD 共同主導的 AI GPU 算力基礎設施解決方案。該公司最近還簽署了一項另外的數十億美元協議,將使用 Alphabet Inc.旗下谷歌獨家打造的 TPU AI 算力集羣。

Meta 也正在大舉投入開發自有 AI 芯片,以幫助降低成本,並減少對第三方芯片巨頭們的依賴。該公司目前正在為 AI 訓練/推理用途開發四個版本的 MTIA AI 芯片,並且最近宣佈擴大與博通的長期深度合作,由後者幫助 Meta 設計和製造這些 AI 芯片。

AI 智能體時代到來,數據中心 CPU 需求爆表

AI 數據中心建設進程如火如荼可謂推動英特爾數據中心 CPU 陷入供不應求態勢,英特爾部分需求最火熱的高性能服務器 CPU 交期最長拉到足足 6 個月之久,面向數據中心的這些高性能服務器級別 CPU 價格今年以來則普遍上漲 10%。這也是為何股價萎靡 1 年半之久的芯片製造商英特爾股價能夠在今年暴漲超 80%,且這家老牌芯片巨頭股價在上週一舉創下 2000 年以來最高股價點位的最底層看漲邏輯。北京時間週五晨間公佈全線超預期的業績之後,英特爾估計在週五美股盤前一度暴漲超 30%。

早期大模型推理以 “單次請求—單次生成” 為主,CPU 更多承擔數據搬運、請求路由與基礎調度,屬於典型的輔助控制面;但進入 AI 智能體與強化學習時代後,系統負載不再是單一前向推理,而是演變為包含任務規劃、工具調用、子代理協同、環境交互、狀態管理與結果驗證在內的複雜閉環。上述 “編排層”(orchestration layer) 本質上是強控制流、強分支判斷、強系統調用、強內存訪問的 CPU 密集型任務,無法被 GPU 高效替代,因此 CPU 正從過去的 “配角” 變成決定系統吞吐、時延與資源利用率的新瓶頸。

摩根士丹利最新預測數據顯示,智能體大爆發標誌着從計算到編排的結構性轉變,由此推導出到 2030 年新增 325 億美元至 600 億美元的 CPU 增量市場空間,並將服務器級別 CPU 總 TAM 大幅擴至 825 億至 1100 億美元量級。TrendForce 的一項預測報告則顯示,在 AI 智能體時代,CPU:GPU 配比可能會從傳統 AI 數據中心的 1:4 至 1:8,向 1:1 至 1:2 大幅重估。

對 Meta 這種每天處理海量 AI agent、推薦、廣告、內容生成和查詢響應的公司來説,很多任務並不需要昂貴 GPU 全程參與;大規模利用 Graviton 這類高密度 ARM 架構而非英特爾 x86 架構 CPU 承接推理服務外圍負載,可以降低單位請求成本、釋放 GPU 給更高價值的訓練/推理任務,並改善整體集羣 TCO。Arm 公司也強調,AI 數據中心擴張正在讓低功耗、高效率的 ARM 架構 CPU 側的編排、數據處理和系統控制成為關鍵瓶頸,而 AWS 第五代 Graviton 把核心數提升到 192 核,反映的正是這種 CPU 密度需求上升。

Meta 主導的這筆最新交易,也凸顯出 AI 算力基礎設施競爭正在從 “GPU 單一需求中心” 走向 GPU+ 自研 AI ASIC+ Arm/x86 數據中心級別 CPU + 數據中心高速光互連體系 + 軟件堆棧的異構體系。