
Wall Street Commentary GTC: In NVIDIA's definition, computing power equals revenue, and Token is the new commodity
英偉達 GTC 大會釋放核心信號:AI 算力的商業邏輯正在發生根本性重構——Token 已成為新的大宗商品,而算力即收入。美銀認為,Blackwell 系統相較上一代 Hopper 已實現每 Token 成本降低高達 35 倍,即將推出的 Rubin 系列有望在此基礎上再降低 2 至 35 倍,這種持續壓縮的 Token 成本曲線,是驅動需求規模化擴張的根本動力。
英偉達年度 GTC 大會釋放出一個核心信號:AI 算力的商業邏輯正在發生根本性重構——Token 已成為新的大宗商品,而算力即收入。
英偉達管理層在本屆 GTC 上將數據中心銷售可見度從此前的 5000 億美元(覆蓋至 2026 年)大幅上調至逾 1 萬億美元(覆蓋 2025 至 2027 年累計),並明確表示獨立 Vera CPU 及 LPX 機架方案的銷售額將在此之外額外計入。華爾街將這場大會視為英偉達 AI 週期持續性的有力背書。
據追風交易台,摩根大通最新報告指出,這一數字意味着相對於華爾街當前對 2026 至 2027 年數據中心收入的一致預期,存在至少 500 至 700 億美元的上行空間。
美銀證券報告直接援引英偉達管理層表述——"Token 是新的大宗商品,算力等於收入"——並指出,Blackwell 系統相較上一代 Hopper 已實現每 Token 成本降低高達 35 倍,即將推出的 Rubin 系列有望在此基礎上再降低 2 至 35 倍,具體幅度取決於工作負載類型與架構配置。
在英偉達的敍事框架下,這種持續壓縮的 Token 成本曲線,是驅動需求規模化擴張的根本動力。
需求能見度翻倍,超大規模客户與企業市場雙輪驅動
英偉達管理層披露,Blackwell 及 Vera Rubin 系統的高置信度採購訂單已超過 1 萬億美元,較 2025 年 10 月 GTC DC 大會上公佈的 5000 億美元翻倍。管理層同時表示,2027 年的額外訂單和積壓訂單有望在未來 6 至 9 個月內持續累積。
需求結構呈現多元化:約 60% 來自超大規模雲廠商(內部 AI 消費正從推薦/搜索工作負載向大語言模型遷移),其餘約 40% 分佈於 CUDA 雲原生 AI 企業、英偉達雲合作伙伴、主權 AI 及工業/企業客户。
美銀指出,這一新的 1 萬億美元展望與此前華爾街對該三年期數據中心收入約 9700 億美元的預期基本吻合,驗證邏輯與 2025 年 10 月舊版 5000 億美元展望驗證約 4500 億美元預期的方式如出一轍。
值得關注的是,英偉達管理層在本次大會上用相當篇幅闡述了傳統企業工作負載加速這一需求向量。
英偉達宣佈與 IBM(加速 WatsonX)、谷歌雲(BigQuery 加速,Snap 實現約 76% 成本節省)、戴爾(AI 數據平台)等合作,並推出 cuDF 及 cuVS 兩大 CUDA-X 基礎庫。
摩根大通認為,這一方向"被市場嚴重低估"——其邏輯在於,摩爾定律已趨於失效,領域專用加速是唯一可行的替代路徑,這將把英偉達的可尋址市場擴展至 AI 訓練/推理週期之外。
Groq LPU 整合:架構層面最重要的新品發佈
摩根大通將 Groq 3 LPU 與 Vera Rubin 的整合評定為本屆 GTC"架構層面最重要的新品發佈"。
這一解耦推理架構將 Rubin GPU(高吞吐量,288GB HBM4,22TB/s 帶寬,50 PFLOPS NVFP4)與 Groq LPU(低延遲解碼,500MB 片上 SRAM,150TB/s SRAM 帶寬,1.2 PFLOPS FP8)配對使用:預填充在 Vera Rubin 上完成,注意力解碼部分同樣在 Rubin 上運行,而前饋網絡/Token 生成則卸載至 Groq LPU。
LPX 機架集成 256 顆 LPU,提供 128GB 聚合 SRAM、40PB/s 內存帶寬及 315 PFLOPS 推理算力,預計於 2026 年第三季度上市。
英偉達管理層表示,對於需要超高 Token 速度的工作負載(代碼生成、工程計算、長上下文推理),約 25% 的數據中心功耗將分配給 LPX,其餘 75% 為純 Vera Rubin NVL72 配置。
美銀數據顯示,Rubin 系統搭配 SRAM LPX 機架後,高端低延遲工作負載的效率可較上一代提升 35 倍。摩根大通則指出,這一架構直接回應了單一處理器無法同時優化吞吐量(受 FLOPS 限制)與延遲(受帶寬限制)的根本矛盾,使英偉達得以在此前 ASIC 廠商具有傳統優勢的高端推理市場有效競爭。
銅纜與 CPO 並行推進,互聯路線不設單一賭注
英偉達管理層在大會上正面回應了銅纜與共封裝光學(CPO)之爭,確認將同時推進兩條路線。
當前 Vera Rubin 世代,Oberon 機架採用銅纜擴展至 NVL72,光學擴展至 NVL576;Spectrum-6 SPX 共封裝光學以太網交換機已量產,由英偉達與台積電聯合開發,管理層稱其光學功耗效率較傳統可插拔收發器提升 5 倍,韌性提升 10 倍。
對於 Rubin Ultra(2027 年下半年),Kyber 機架採用銅纜 NVLink 擴展(最多 144 顆 GPU),同時提供基於 CPO 的 NVLink 交換方案作為備選。Feynman(2028 年)將明確同時支持銅纜與 CPO 擴展,並配備 Spectrum-7(204T,CPO)用於橫向擴展。
美銀證券強調,CPO 擴展/橫向擴展交換機的採用對客户而言完全可選,客户可繼續使用銅纜直至其認為合適的時間節點。摩根大通則認為,這一雙路徑確認與其此前預判一致,預計銅纜擴展將在至少 2027 年前繼續主導 NVL72/NVL144 配置,CPO 則將在橫向擴展及 NVL576+ 配置中逐步擴大份額。
Vera CPU:面向智能體 AI 的獨立數十億美元新收入來源
英偉達管理層在大會上明確表示,Vera CPU 獨立業務"已經確定將成為一個數十億美元量級的業務",美銀證券指出這一收入流尚未被當前市場一致預期所涵蓋,屬於增量貢獻。
Vera CPU 搭載 88 顆自研 Olympus ARM 核心,LPDDR5X 內存子系統提供 1.2TB/s 帶寬(功耗僅為傳統服務器 CPU 的一半),並通過 NVLink-C2C 以 1.8TB/s 速率與 GPU 互聯(相當於 PCIe Gen 6 的 7 倍)。Vera CPU 機架集成 256 顆液冷 CPU,支持超過 22500 個併發 CPU 環境。
管理層強調,CPU 正在成為智能體 AI 擴展的瓶頸——強化學習與智能體工作流需要大量 CPU 環境來測試和驗證 GPU 模型的輸出結果。Meta 已在規模化部署上一代 Grace CPU,Vera 將於 2027 年接替。
摩根大通將這一 CPU 收入流定性為高毛利、可重複(隨 GPU 機架一同部署於 AI 工廠),並與英偉達正在主動催化的智能體 AI 採用曲線形成結構性綁定。
產品路線圖延伸至 2028 年,年度架構節奏持續強化
英偉達重申了年度平台發佈節奏:Blackwell(2024 年)→ Blackwell Ultra(2025 年)→ Rubin(2026 年)→ Rubin Ultra(2027 年)→ Feynman(2028 年)。
Rubin Ultra 將採用 4 芯片 GPU 配置,搭載 1TB HBM4e,新增 LP35 LPU 芯片(首次引入 NVFP4 算力),Kyber 機架支持每 NVLink 域 144 顆 GPU(第七代 NVLink,3.6Tb/s 每 GPU,NVL576 聚合帶寬 1.5Pb/s)。
Feynman 的細節披露超出市場預期:
新 GPU 採用台積電 A16(1.6nm)工藝,引入芯片堆疊與定製 HBM;新 CPU 命名為 Rosa(以 Rosalind Franklin 命名),專為跨 GPU、LPU、存儲及網絡的智能體工作負載編排而設計;新 LPU 命名為 LP40,由英偉達內部 Groq 團隊聯合開發;此外還包括 BlueField-5 DPU、ConnectX-10 超級網卡、NVLink 8 及 Spectrum-7(204T,CPO)。
摩根大通認為,英偉達縱向整合平台(現已橫跨七顆芯片、五種機架系統及配套軟件棧)難以被複制,推理需求加速、傳統工作負載加速帶來的可尋址市場結構性擴張,以及客户基礎的持續拓寬,共同支撐着一個比市場當前所預期更具持續性的 AI 資本開支週期。
