
AI GPU demand is soaring, NVIDIA urges SK Hynix to prepare HBM4 six months in advance

英偉達首席執行官黃仁勳要求 SK 海力士提前六個月推出下一代高帶寬存儲產品 HBM4,以滿足對 AI GPU 的強勁需求。SK 海力士計劃在 2025 年下半年向大客户提供 HBM 存儲系統。英偉達的 AI GPU 市場佔有率高達 80%-90%,顯示出對更高性能和更節能存儲系統的迫切需求。
智通財經 APP 獲悉,韓國大型財團之一的 SK 集團董事長崔泰源在週一接受採訪時表示,英偉達首席執行官黃仁勳此前要求 SK 集團旗下存儲芯片製造巨頭 SK 海力士 (SK Hynix) 提前六個月推出其下一代高帶寬存儲產品 HBM4。SK 海力士 10 月份在財報中曾表示,計劃在 2025 年下半年向大客户 (市場猜測為英偉達以及 AMD) 提供 HBM 存儲系統。SK 海力士發言人週一則表示,這一時間表確實比最初的目標要快,但沒有進一步進行闡述。
黃仁勳親自要求 SK 海力士加快下一代 HBM——HBM4 存儲系統的交貨速度,凸顯出對英偉達對於開發愈發先進的人工智能 GPU 系統的更高容量、更節能 HBM 存儲系統的無比強勁需求,以及更加凸顯出 OpenAI、Anthropic、微軟、亞馬遜以及 Meta 等人工智能、雲計算以及互聯網大廠們對於 AI 訓練/推理算力幾乎無止境的 “井噴式需求”,迫使英偉達 (NVDA.US) 核心芯片代工廠台積電 (TSM.US) 加班加點擴大 Blackwell AI GPU 產能,以及紛紛要求英偉達以更快速度推出性能更高、存儲容量更龐大、推理效率更強大且更加節能的下一代 AI GPU 的研發進程。
英偉達計劃於 2026 年推出下一代 AI GPU 架構——Rubin,預計 Rubin AI GPU 將搭載 HBM4 存儲系統。據不完全統計,英偉達目前在全球數據中心 AI 芯片市場佔據 80%-90% 堪稱壟斷的市場份額,預計 AMD 佔比接近 10%,其他份額則為谷歌 TPU、亞馬遜自研 ASIC 等大廠自研 AI 芯片。
作為英偉達 H100/H200 以及近期批量生產的 Blackwell AI GPU 的核心 HBM 存儲系統供應商,SK 海力士一直在引領全球存儲芯片產能競賽,以滿足英偉達、AMD 以及谷歌等大客户們滿足對 HBM 存儲系統的爆炸性需求以及其他企業對於數據中心 SSD 等企業級存儲產品的需求,這些存儲級的芯片產品對於處理海量數據以訓練出愈發強大的人工智能大模型以及需求劇增的雲端 AI 推理算力而言堪稱核心硬件。
但 SK 海力士也面臨着來自三星電子以及美國存儲巨頭美光 (MU.US) 日益激烈的競爭壓力。三星上週在財報中表示,在與一家主要客户 (可能是英偉達) 達成供應協議方面取得了積極進展,此前該公司長期遭遇產品測試延誤並且在上一次測試中未能通過英偉達資質測試。三星補充表示,該公司正在與主要客户進行談判,有可能明年上半年批量生產 “改進後” 的 HBM3E 產品。三星還計劃在明年下半年生產下一代 HBM——HBM4 存儲,以跟上競爭對手 SK 海力士的步伐。
在美國,美國本土存儲巨頭美光乃另一獲得英偉達供應資質的 HBM 供應商,另一家為 SK 海力士。在今年 2 月,美光已經開始量產專為人工智能和高性能計算所設計的 HBM3E 存儲系統,並表示英偉達一部分 H200 以及 Blackwell AI GPU 將搭載美光 HBM3E。隨後,美光 CEO 還多次表示,美光今明兩年的 HBM 產能已銷售一空。美光還表示,正在加速推進下一代的 HBM4 和 HBM4e 研發進程。
在與崔泰源接受採訪幾乎同一時間,SK 海力士首席執行官郭魯正在首爾舉行的 2024 年 SK 人工智能峯會上表示,該公司計劃今年年底前向一位大客户 (市場猜測為英偉達) 提供最新的 12 層 HBM3E,並計劃在明年初運送更先進的 16 層 HBM3E 存儲樣品。並且這位首席執行官在採訪中還透露,英偉達 AI GPU 供應仍然難以滿足需求,並且英偉達多次要求 SK 海力士加快 HBM3E 供應規模。
HBM 需求炸裂,堪稱 “印鈔機”
英偉達創始人兼 CEO 黃仁勳在前不久的採訪中曾透露,Blackwell 架構 AI GPU 已全面投產,且需求非常 “瘋狂”;與此同時,隨着 AI GPU 需求爆表,HBM 存儲系統需求也隨之激增,並且未來幾年可能持續供不應求。
據瞭解,來自天風國際的知名科技產業鏈分析師郭明錤最新發布英偉達 Blackwell GB200 芯片的產業鏈訂單信息,指出微軟目前是全球最大的 GB200 客户,Q4 訂單激增 3-4 倍,訂單量超過其他所有的雲服務商總和。
郭明錤在一份最新報告中表示,Blackwell AI GPU 的產能擴張預計在今年第四季度初啓動,屆時第四季度的出貨量將在 15 萬到 20 萬塊之間,預計 2025 年第一季度出貨量將顯著增長 200% 到 250%,達到 50 萬到 55 萬塊。這意味着,英偉達可能僅需幾個季度就能實現百萬台 AI 服務器系統的銷量目標。
根據華爾街金融巨頭花旗集團的最新預測數據,到 2025 年,美國四家最大規模科技巨頭的數據中心相關資本支出預計將同比增長至少 40%,這些龐大的資本支出基本上都與生成式人工智能掛鈎,意味着 ChatGPT 等 AI 應用的算力需求仍然龐大。花旗集團表示,這意味着巨頭們對於數據中心的支出規模有望在本已強勁的 2024 支出規模之上繼續大舉擴張,該機構預計這一趨勢將為 AI GPU 當之無愧的霸主英偉達以及數據中心互連 (DCI) 技術提供商們股價持續帶來非常重磅的正面催化劑。
HBM 存儲系統與 AI 芯片霸主英偉達所提供的核心硬件——H100/H200/GB200 AI GPU 以及廣泛的 AI ASIC 芯片 (比如谷歌 TPU) 配合搭載使用,HBM 與英偉達 AI GPU 共同組合成所謂的 “NVIDIA AI GPU 服務器”。HBM 以及 AI GPU 對於驅動 ChatGPT 以及 Sora 等重磅人工智能應用可謂必不可少,AI GPU 需求越強勁,則説明 HBM 存儲需求愈發猛烈。
HBM 是一種高帶寬、低能耗的存儲技術,專門用於高性能計算和圖形處理領域。HBM 通過 3D 堆疊存儲技術,將堆疊的多個 DRAM 芯片全面連接在一起,通過微細的 Through-Silicon Vias(TSVs) 進行數據傳輸,從而實現高速高帶寬的數據傳輸。HBM 通過 3D 堆疊技術,將多個存儲芯片堆疊在一起,不僅大幅減少了存儲體系空間佔比,也大幅降低了數據傳輸的能耗,高帶寬則能夠顯著提升數據傳輸效率,使得 AI 大模型能夠 24 小時不間斷地更高效地運行。
尤其是 HBM 存儲系統具有無可比擬的低延遲特性,能夠快速響應數據訪問請求。GPT-4 等生成式 AI 大模型通常需要頻繁訪問大數據集以及進行無比繁重的大模型推理工作負載,強大的低延遲特性能夠極大程度提高 AI 系統的整體效率和響應速度。在 AI 基礎設施領域,HBM 存儲系統全面捆綁英偉達 H100 /H200 AI GPU 以及 AMD MI300X 等 AI GPU,以及正在批量生產的英偉達 B200 和 GB200 AI GPU,以及 AMD MI325X 等。
華爾街大行高盛發佈研報稱,由於企業無比強勁的生成式人工智能 (Gen AI) 需求推動了更高的 AI 服務器出貨量和每個 AI GPU 中更高的 HBM 密度,該機構大幅提高了 HBM 總市場規模預估,現在預計市場規模將從 2023 年到 2026 年間以複合年增速 100% 大幅增長,預計到 2026 年增長至 300 億美元。高盛預計,HBM 市場供不應求的情況未來幾年將持續,SK 海力士、三星和美光等主要玩家將持續受益。