
Track Hyper | SK Hynix teams up with Intel to strike at the Nvidia empire?

英特爾新一代 AI 加速卡採用海力士 HBM4?
作者:周源/華爾街見聞
最近業界有消息稱,SK 海力士有望與英特爾就 HBM4(第六代)內存供應展開合作,這是否意味着英特爾開始正式走上 AI 加速卡市場競爭角鬥場?
在算力需求呈指數級增長的當下,內存與芯片的協同關係,已從傳統的硬件配套,演變為決定 AI 系統競爭力的核心要素。
無論是大型數據中心的 AI 模型訓練,還是邊緣設備的實時推理,內存性能都成為制約系統效率的關鍵變量,而 HBM4 與 Jaguar Shores 的結合,符合行業發展趨勢。
AI 芯片的性能瓶頸,已從單純的計算能力,擴展到數據傳輸環節。
以 Transformer 架構的大語言模型為例,訓練過程中參數更新產生的海量數據,需頻繁在內存與處理器間交互,傳統 DDR 內存的串行傳輸模式,導致數據等待時間佔比超過 30%。
這種計算資源閒置現象在訓練千億參數模型時尤為明顯,往往造成單卡日均有效計算時長不足。
HBM4 通過 2048-bit 接口實現的並行數據傳輸,將內存帶寬提升至前代產品 1.5 倍 +,這種架構革新直接解決了 AI 芯片 “計算快、傳輸慢” 的矛盾。
在圖像生成領域,採用 HBM4 內存的 AI 加速器,處理 512x512 分辨率圖像的生成速度,比使用 HBM3 快約 40%;在自動駕駛算法的實時推理中,車輛傳感器採集的每秒 30GB 數據能通過 HBM4 實現無延遲傳輸,為決策系統爭取到寶貴的反應時間。
更關鍵的是 HBM4 的物理層優化,採用了 CoWoS 封裝技術,將多個 DRAM 芯片垂直堆疊並通過硅通孔(TSV)互聯,數據傳輸路徑由此極大縮短。
這種物理結構的改進,配合優化後的緩存一致性協議,顯著降低了內存延遲,讓 AI 芯片在處理時序數據時的響應速度提升。
在金融高頻交易的 AI 預測模型中,這種低延遲特性可將數據處理響應時間壓縮至微秒級,為交易決策提供更及時的支持。
對於 SK 海力士而言,此次合作是其 HBM 技術商業化的重要節點。
HBM4 面臨三星、美光的激烈競爭。通過與英特爾綁定,SK 海力士不僅能提前驗證 HBM4 在複雜 AI 場景下的適配性,還能借助英特爾龐大的服務器客户資源,建立規模化生產優勢。
目前 SK 海力士在韓國利川的 HBM4 生產線已啓動二期擴建,預計 2026 年量產,總體產能將達到 30 萬片晶圓;目前還不清楚與英特爾的合作訂單,將佔多少比例的產能。
英特爾的需求,整體上看,應當更具戰略緊迫性。
在 AI 芯片市場,英偉達憑藉 CUDA 生態和 H100/H200 系列產品佔據 70%+ 份額(數據來源:Mercury Research)。
Jaguar Shores 作為英特爾新一代 AI 加速器,亟需通過硬件差異化實現破局。
HBM4 內存的引入,使 Jaguar Shores 在內存帶寬指標上首次達到行業領先水平,為其切入雲服務商定製化 AI 服務器市場提供關鍵籌碼。
英特爾數據中心事業部已與微軟 Azure 達成初步協議,計劃在 2026 年部署搭載 Jaguar Shores 和 HBM4 的 AI 服務器集羣,用於支持大語言模型的分佈式訓練。
在內存市場,此次合作加劇了 HBM 領域的 “三國殺” 局面。
三星電子已宣佈將在 2025 年底前量產 HBM4,採用了 12 層堆疊技術,比 SK 海力士多 2 層,宣稱帶寬可再提升 10%;美光也計劃在 2026 年實現技術突破,重點優化 HBM4 的功耗表現,目標將能效比提升 25%。
SK 海力士與英特爾的綁定,可能促使三星加速與 AMD 的合作,雙方已在研發基於 HBM4 的 GPU 原型機;美光則與高通聯手,探索 HBM4 在移動 AI 芯片上的應用,試圖開闢新的市場空間。
這樣的競爭烈度,可能會推動 HBM 技術迭代週期從兩年縮短至一年內,2027 年 HBM5 的研發可能提前啓動。
AI 芯片市場的競爭維度正在發生變化。
英偉達的優勢在於完整的軟硬件生態,但隨着 HBM4 等通用技術的普及,其他廠商得以在硬件性能上縮小差距。
數據中心運營商已開始嘗試多廠商 AI 芯片混合部署方案,谷歌 TPU(張量處理器:Tensor Processing Unit,定製 AI 加速卡,屬於 ASIC 類型)與英偉達 GPU 的混合集羣已在部分業務中應用。
英特爾若能通過 Jaguar Shores+HBM4 組合證明性價比優勢,有望打破英偉達在超大規模數據中心的壟斷局面。
目前,亞馬遜 AWS 已表示將對 Jaguar Shores 做為期 6 個月的性能測試,測試內容涵蓋模型訓練速度、能耗比、兼容性等多項關鍵指標。
儘管 HBM4 能顯著提升 AI 芯片性能,但仍面臨發展瓶頸:其一,垂直堆疊帶來的散熱問題,HBM4 芯片組工作時的熱密度達 150W/cm²,超出傳統風冷散熱能力,英特爾為此專門開發了浸沒式液冷方案,通過氟化液直接接觸芯片表面,散熱效率比冷板式液冷大幅提高。
其二,成本居高不下,單顆 HBM4 芯片的製造成本約為 HBM3E 的 1.3 倍(數據來源:TrendForce),原因是因為 I/O 數量從 1024 變為 2048,芯片設計複雜度加劇,晶圓體積變大,且基礎芯片變為邏輯芯片,同時還採用了更先進的製程生產邏輯芯片。
對於英特爾而言,獲得 HBM4 只是第一步。
如何通過軟件優化(如開發專用內存調度算法)、散熱創新(如液冷一體化設計),將硬件性能轉化為實際應用優勢,才是決定 Jaguar Shores 市場成敗的關鍵,也是英特爾能否真正取得 AI 加速卡市場競爭門票的最好註腳。
英特爾軟件團隊已開發出基於動態內存分區的調度算法,可根據不同 AI 任務的內存需求自動分配帶寬資源,在測試中提升了 BERT(Bidirectional Encoder Representations from Transformers)模型的訓練效率。
SK 海力士同樣需要與更多芯片廠商合作,推動 HBM4 成為行業標準,避免陷入 “技術先進但生態孤立” 困境。
目前,SK 海力士已與台積電達成合作,將 HBM4 集成到 CoWoS 封裝的參考設計中,降低其他芯片廠商的適配難度。
SK 海力士與英特爾的 HBM4 合作,不僅關乎內存與芯片的性能提升,更預示着未來 AI 硬件競爭將從單一技術比拼,轉向生態構建與產業鏈整合的全方位較量。
這場合作的最終成效,將在未來 2-3 年 AI 芯片市場的洗牌中得到驗證,而其影響也將延伸至整個 AI 產業的技術路徑選擇與發展節奏。
