Marvell shares the latest AI progress: Custom computing is fully exploding, targeting a market of $94 billion

華爾街見聞
2025.06.18 14:05
portai
I'm PortAI, I can summarize articles.

Marvell 將 2028 年數據中心潛在市場規模(TAM)的預期,從去年的 750 億美元上修至 940 億美元,其中定製 XPU 規模達到 400 億美元,CAGR 為 47%,XPU 配套組件規模達到 150 億美元,CAGR 高達 90%,幾乎每年翻倍。

Marvell 剛剛結束的 Custom AI 投資者日透露出一個明確信號:AI 芯片正在從 “通用 GPU 拼裝” 走向 “高度定製的系統級協同”。Marvell 不再只是一個芯片設計公司,而是 AI 公司打造算力底座時的關鍵基礎設施合作方。

Marvell 將 2028 年數據中心潛在市場規模(TAM)的預期,從去年的 750 億美元上修至 940 億美元,其中定製計算(XPU)及其配套組件市場規模達到 550 億美元。

Marvell 指出,定製計算(XPU)和 XPU Attach(配套組件) 是增長最快的兩大領域 。過去一年,定製計算的市場增長了近 30%,互連(interconnect)增長了約 37% 。Marvell 的雲收入未來將全面轉向 AI 收入,這反映了 AI 在所有應用和雲基礎設施中的深度融合,雲正成為 AI 的 “工廠” 。

AI 芯片已進入 “系統定製” 時代

Marvell 強調:定製化芯片是滿足新型工作負載需求的關鍵,是 AI 基礎設施的未來,並且正在 “每個雲端” 發生。

從核心 XPU 芯片,到配套的高帶寬內存(HBM)、互聯控制、供電等 “XPU Attach” 模塊,客户都在為自己的 AI 應用場景打造專屬系統。

公司 CEO Matt Murphy 在大會上指出:“如果你現在才開始準備做定製芯片,那已經太晚了。” Marvell 自 2018 年起押注定製方向,今天已經形成完整體系。

TAM 大幅上修,至 940 億美元

在去年披露的 750 億美元市場預期基礎上,Marvell 今年將定製芯片的 2028 年目標市場規模(TAM)上修至940 億美元,年複合增速達 35%。其中:

  • 定製 XPU:400 億美元,CAGR(複合年增長率)47%
  • XPU 配套組件:150 億美元,CAGR 高達 90%,幾乎每年翻倍

Marvell 預計,雲收入未來將全面轉向 AI 收入,反映了 AI 在所有應用和雲基礎設施中的深度融合。

團隊還觀察到,工作負載正趨於多樣化,採用專用芯片在成本與性能方面具有顯著優勢。Marvell 指出,相較於 GPU,XPU 在工作負載中能提供更優性能。當前 XPU 在 AI 計算市場佔比約 25%,Marvell 認為隨着 ASIC 供應商技術突破,這一份額有望繼續提升。

客户結構變化:新興大型 AI 算力自建者與主權 AI 浮出水面

傳統雲計算四巨頭(亞馬遜 AWS、微軟 Azure、谷歌、Meta)仍然是主力,但 Marvell 指出,Emerging Hyperscalers(新興大型 AI 算力自建者,例如 xAI、Tesla 等)正在崛起,開始自主建設 AI 集羣並推進定製芯片。

與此同時,“Sovereign AI”(由國家推動的本地 AI 基礎設施)也成為全新增長方向,多個國家已展開投資,這將推動更多 AI 芯片定製需求在全球範圍內爆發。

Marvell 已拿下 18 個客户 Socket,未來仍有 50+ 項目在洽談中

當前,Marvell 已經拿下 18 個定製 Socket(客户定製芯片項目單元)項目,多為長期多代項目:

  • 其中 5 個為核心 XPU 項目
  • 13 個為 XPU 配套組件相關項目

此外,Marvell 還在積極跟進超過 50 個新項目機會,覆蓋 10+ 家客户,潛在生命週期收入合計可達 750 億美元。

Marvell 預計多個 Socket 將在2026-2027 年進入量產,特別是一顆 “重量級 XPU”,將成為推動收入加速的關鍵拐點。

Marvell 設定了到 2028 年在定製計算市場獲得 20% 市場份額的目標。公司透露,幾年前其市場份額還不足 5%,如今已達到 13%。20% 的份額是 “最佳預估”,也是合理的下一步目標。

當被問及是否 “已深入參與繼當前 3 納米設計後的下一代項目開發”(主要客户為亞馬遜)時,Marvell 明確回答 “當然”,並解釋了產品迭代週期要求他們必須並行開發芯片(即確認了 T4 和 MAIA 3 項目)。

技術突破:SRAM、HBM 與 Die-to-Die 互聯

Marvell 在本次活動中展示了多個關鍵模塊的技術突破:

  • 2nm 定製 SRAM:帶寬密度是市面主流 IP 的 17 倍,待機功耗降低 66%
  • 自研 HBM 方案:通過底層 Die-to-Die 互聯,騰出 1.7 倍可用核心面積,功耗降低 75%
  • Die-to-Die 通信:帶寬密度超過 10 Tbps/mm,功耗低至亞皮焦(sub-pJ/bit)級別
  • Co-Packaged Optics:將光通信直接整合進封裝,解決傳統銅線遠距離低能效問題

這些模塊是支撐高性能 AI 訓練和推理架構擴展的基礎能力。