
"Father of HBM" Predicts AI Architecture Disruption: Memory to Replace GPU as Core
“HBM 之父” 預言,AI 架構將從 GPU 中心轉向內存中心——智能體 AI 時代的內存需求可能膨脹 100 萬倍,現有 HBM 技術將觸及天花板,以堆疊 NAND 為基礎的新一代 HBF 技術有望於 2027 年出現工程樣品、2028 年被谷歌或英偉達採用。SK 海力士已聯手閃迪搶跑標準制定,三星同步佈局。
當 AI 從"生成"走向"自主行動",算力的瓶頸可能將從 GPU 轉移到內存。
據韓國《亞洲經濟》等當地媒體報道,被業界譽為"HBM 之父"的韓國科學技術院(KAIST)教授 Joungho Kim 近日發出預言:當前由英偉達主導的 GPU 中心化 AI 架構,終將被以內存為核心的新架構所取代。
這一判斷的背後,是 AI 應用形態的根本性轉變。從生成式 AI 邁向智能體 AI(Agentic AI),系統需要同時處理海量文檔、視頻及多模態數據——Kim 將這一趨勢稱為"上下文工程"(context engineering)的崛起。他指出,為保障速度與精度,內存帶寬和容量必須提升最高1000 倍。
數字更為驚人的是需求端:據 Money Today Broadcasting 早前引述 Kim 的説法,輸入規模若擴大 100 至 1000 倍,內存需求可能呈指數級躍升,總量膨脹幅度或高達100 萬倍。
HBM 將觸及天花板,HBF 接棒
Kim 明確表示,現有 HBM 技術——通過垂直堆疊 DRAM 實現超高速傳輸,目前主導 AI 加速器內存市場——在智能體 AI 時代將難以為繼。
他提出的下一代解決方案是HBF(High Bandwidth Flash,高帶寬閃存):以堆疊 NAND 替代 DRAM,構建一個"巨型書架式"長期記憶體,容量遠超現有上限。
類比來看,HBM 更像是桌面上的便籤紙——速度快但容量有限;HBF 則像是一整面書牆,能存放的信息量級完全不同。
在架構層面,SK 海力士已在 IEEE 發表的論文中提出"H3"架構——據《韓國經濟》2 月報道,該架構將 HBM 與 HBF 並排部署於 GPU 旁側,而非現有設計中僅有 HBM 緊鄰處理器。這意味着 GPU 的角色將從"主角"退化為"配角",計算單元被嵌入以內存為主體的系統之中。
時間表已逐漸清晰。
據 Kim 的預測,HBF 工程樣品預計將於 2027 年前後出現,谷歌、英偉達或 AMD 最早可能在 2028 年採用該技術。
這一節奏與 HBM 當年從實驗室走向大規模商用的路徑高度相似,也意味着產業窗口期已經開啓。
SK 海力士與三星,再度正面交鋒
Kim 同時指出,HBF 領域的競爭格局將復刻 HBM 時代的劇本——SK 海力士與三星電子再度成為主角。
目前,SK 海力士已於今年 2 月聯合閃迪成立 HBF 標準化聯盟,意在搶佔生態系統主導權。三星則一方面持續推進 HBM4E 等下一代 HBM 產品,另一方面同步投入與 HBF 概念相符的 NAND 架構研發,據 Aju News 報道。
兩家巨頭的佈局路徑不同,但目標指向同一個賽道。誰能率先完成從標準制定到量產交付的閉環,將在很大程度上決定下一輪 AI 內存市場的格局。
