
AI“賣鏟者”:HBM,新混戰!

韓國半導體行業在下行週期中遭受損失,但由於英偉達的 AI 加速卡帶動,HBM 異軍突起成為唯一能逆市增長的內存產品。為支持 HBM 發展,韓國政府將其確定為國家戰略技術,並提供税收優惠。三星和 SK 海力士是 HBM 的主要供應商,預計將繼續擴產。SK 海力士在 2023 年第四季度有亮眼表現,營收同比增長 47%。
對於韓國半導體行業來説,去年有一個好消息和一個壞消息。
壞消息是內存和存儲行業進入到了下行週期之中,庫存飆升,價格狂跌,韓國半導體廠商也因此蒙受了一次巨大的損失,近幾個季度的財報裏出現了虧損。
而好消息呢,就是在下行週期中,由於英偉達的 AI 加速卡帶動,HBM 異軍突起,成為了唯一能逆市大幅增長的內存產品,而且韓國廠商佔據了 90% 的份額,一定程度上彌補了傳統內存業務的損失。
為了支持 HBM 的發展,韓國政府最近還將 HBM 確定為了國家戰略技術,將為 HBM 供應商如三星電子和 SK 海力士等提供税收優惠,該決定屬於韓國税法修正案執法法令草案的一部分,相比一般研發活動,國家戰略技術可享有更高的税收減免:中小型企業可獲得最高 40% 至 50% 減免,而大型企業可獲得 30% 至 40% 減免。
2024 年的 HBM 依舊火熱,英偉達的 H100 與 200 依舊是市面上最搶手的 GPU,其對於 HBM 的需求自然也是水漲船高,對於三星和 SK 海力士來説,政策支持加上市場發展,繼續擴產 HBM 似乎已經是板上釘釘之事了。
擴產,再擴產
首先是 HBM 的領頭羊——SK 海力士。
SK 海力士去年第三季度的業績是所有內存廠商裏最亮眼的,而在 1 月 25 日,SK 海力士也發佈了最新的 2023 年第四季度及 2023 年全年財報:
第四季營收同比增長 47% 至 11.3055 萬億韓元,高於分析師預期的 10.4 萬億韓元;毛利潤為 2.23 億韓元,同比大增 9404%,毛利潤率為 20%,為連續第三個季度回升;營業利潤為 3460 億韓元(約合人民幣 18.54 億元),好於分析師預期的虧損 1699.1 億韓元,營業利潤率為 3%;淨虧損為 1.3795 萬億韓元(約合人民幣 73.94 億元),優於分析師預期的虧損 0.41 萬億韓元,但較前一季度虧損大幅縮窄,淨虧損率為 12%。EBITDA(税息折舊及攤銷前利潤)為 3.58 億韓元,同比增長 99%。
SK 海力士在財報中指出,這一業績的實現主要歸功於 SK 海力士在第四季度 AI 存儲芯片 HBM3 和大容量移動 DRAM 等旗艦產品的銷售額大幅增長,分別比上年同期增長了 4 倍和 5 倍以上,AI 服務器和移動應用程序的需求上升,改善了 2023 年最後一個季度的整體內存市場狀況。
HBM 作為財報裏最亮眼的一筆,SK 海力士也在財報中表示,計劃在 2024 年增加資本支出,並將生產重心放在 HBM 等高端存儲產品上,HBM 的產能對比去年將增加一倍以上,此前海力士曾預計,到 2030 年其 HBM 出貨量將達到每年 1 億顆,並決定在 2024 年預留約 10 萬億韓元(約合 76 億美元)的設施資本支出——相較 2023 年 6 萬億-7 萬億韓元的預計設施投資,增幅高達 43%-67%。
擴產的重點是新建和擴建工廠,去年 6 月有韓媒報道稱,SK 海力士正在準備投資後段工藝設備,將擴建封裝 HBM3 的利川工廠,預計到今年年末,該廠後段工藝設備規模將增加近一倍。
此外,SK 海力士還將在美國印第安納州建造一座最先進的製造工廠,據兩位接受英國《金融時報》採訪的消息人士透露,這家韓國芯片製造商將在這家工廠生產 HBM 堆棧,這些堆棧將用於台積電生產的 Nvidia GPU,SK 集團董事長表示,該工廠預計耗資 220 億美元。
對比之下,三星在 HBM 上就顯得有些被動了,三星電子從去年第四季度開始擴大第四代 HBM 即 HBM3 的供應,目前正進入一個過渡期。
1 月 31 日,在第四季度及年度財報電話會議上,三星電子表示預計存儲器業務將在今年第一季度恢復正常,三星電子內存業務部門副總裁 Kim Jae-joon 表示:“我們計劃積極應對與生成式 AI 相關的 HBM 服務器和 SSD 需求,重點關注提高盈利能力,預計內存業務將在今年第一季度恢復盈利。”
內存業務恢復盈利的關鍵在於 HBM、服務器內存等高價值產品。值得注意的是,三星去年第四季度 HBM 銷售額同比增長 3.5 倍,三星電子計劃集中其整個半導體部門(包括代工廠和系統 LSI 業務部門)的能力,提供定製 HBM 以滿足客户需求。
三星的代表評論道:“HBM 位銷售額每個季度都在打破記錄。去年第四季度,銷售額環比增長超過 40%,同比增長超過 3.5 倍。特別是在第四季度,我們鎖定了主要 GPU 製造商作為我們的客户。” 該代表進一步預測,“我們已經向客户提供了下一代 HBM3E 的 8 層堆疊樣品,並計劃在今年上半年開始量產。到下半年,其佔比預計將達到 90% 左右。”
負責三星美國半導體業務的執行副總裁 Han Jin-man 則在今年 1 月表示,公司對包括 HBM 系列在內的大容量存儲芯片寄予厚望,希望它能引領快速增長的人工智能芯片領域,“我們今年的 HBM 芯片產量將是去年的 2.5 倍,” 他在 CES 2024 的媒體見面會上對記者説,“我們今年的 HBM 芯片產量將比去年提高 2.5 倍,明年還將繼續提高 2 倍。”
三星官方還透露,公司計劃在今年第四季度之前,將 HBM 的最高產量提高到每月 15 萬至 17 萬件,以此來爭奪 2024 年的 HBM 市場。此前三星電子斥資 105 億韓元收購了三星顯示位於韓國天安市的工廠和設備,以擴大 HBM 產能,同時還計劃投資 7000 億至 1 萬億韓元新建封裝線。
HBM4 爭奪戰
除了擴產外,它們也在為了下一代 HBM 標準而勾心鬥角。
HBM3e 在去年年底就提供了樣品,預計將於今年第一季度完成驗證和量產,而大家更為關注的顯然是 HBM4,其堆棧會從現有的 12 層增加到 16 層,可能會採用 2048 位內存堆棧連接接口,但目前 HBM4 標準沒有最終確定,兩家韓國廠商對此提出了各自不同的路線。
據 Business Korea 報道,SK 海力士正準備為下一代 HBM 技術採用 “2.5D 扇出” 封裝。此舉旨在提高性能,降低封裝成本。這種技術以前未在內存行業使用,但在先進的半導體制造行業很常見,被認為有可能 "徹底改變半導體和代工行業",SK 海力士計劃最早於明年公佈使用這種封裝方法的研究成果。
具體來説,2.5D 扇出封裝技術是將兩個 DRAM 水平排列,並將它們組裝成類似於普通芯片的結構,由於芯片下方沒有基板,因此芯片更薄,安裝在 IT 設備中時厚度大大降低,同時,這種技術繞過了硅通孔(TSV)工藝,提供了更多的輸入/輸出(I/O)選擇,降低了成本。
目前的 HBM 堆棧被放置在 GPU 旁邊,並與芯片相連,而 SK 海力士的新目標是完全消除中間層,將 HBM4 直接放在 Nvidia 和 AMD 等公司的 GPU 上,並首選台積電作為代工廠。
根計劃,SK 海力士最早於 2026 年量產第六代 HBM(HBM4),此外,海力士還在積極研究 “混合鍵合” 技術,該技術很可能應用於 HBM4 產品。
三星則是反海力士之道而行,研究起了光子技術在 HBM 技術中間層的應用,目的是解決與熱量和晶體管密度相關的挑戰。
三星先進封裝團隊首席工程師在 2023 年 10 月舉行的 OCP 全球峯會上分享了他的見解。他表示,目前業界通過兩種主要方法在將光子技術與 HBM 集成方面取得了重大進展,第一種是在底層封裝層與包含 GPU 和 HBM 的頂層封裝層之間放置光子中間件,作為通信層,但這種方法成本高昂,需要為邏輯芯片和 HBM 安裝中間層和光子 I/O。
而第二種方法是將 HBM 內存模塊從封裝中分離出來,利用光子技術將其直接連接到處理器。與處理複雜的封裝問題相比,更有效的方法是將 HBM 存儲模塊與芯片本身分離,並使用光子技術將其連接到邏輯集成電路。這種方法不僅簡化了 HBM 和邏輯集成電路的製造和封裝成本,而且無需在電路中進行內部數字到光學轉換,只是需要注意散熱問題。
三星的一位高管博客文章內表示,公司目標是在 2025 年推出第六代 HBM(HBM4),其中包括了針對高温熱特性優化的非導電粘合膜(NCF)組裝技術和混合鍵合(HCB)技術,以贏得快速增長的人工智能芯片領域迫切激烈戰爭的主導權。
可以看到,兩家韓廠在下一代 HBM 標準上已經展開了一場激烈的爭奪戰。
美光,偷襲?
與上述兩家韓廠相比,美光處於一個明顯的弱勢地位,美光預計 2023 年其 HBM 市場份額約為 5%,位居第三。
為了縮小差距,美光對其下一代產品 HBM3E 下了很大的賭注,美光首席執行官 Sanjay Mehrotra 表示:“我們正處於為 Nvidia 下一代 AI 加速器提供 HBM3E 的驗證的最後階段。” 其計劃於 2024 年初開始大批量發貨 HBM3E 內存,同時強調其新產品受到了整個行業的極大興趣,這暗示NVIDIA 可能不是唯一最終使用美光 HBM3E 的客户。
具體規格方面,美光的 24GB HBM3E 模塊基於八個堆疊 24Gbit 內存芯片,採用該公司的 1β (1-beta) 製造工藝製造,其數據速率高達 9.2GT/秒,每個堆棧的峯值帶寬達到 1.2TB/s,比現有最快的 HBM3 模塊提高了 44%。
而在未來的佈局方面,美光披露了暫名為 HBM next 的下一代 HBM 內存,其預計 HBM Next 將提供 36GB 和 64GB 容量,能提供多種配置,例如 12-Hi 24Gb 堆棧 (36GB) 或 16-Hi 32Gb 堆棧 (64GB) ,此外每個堆棧的帶寬為 1.5TB/s–2+TB/s,意味着總數據傳輸速率超過 11.5GT/s/pin。
與三星和 SK 海力士不同,美光並不打算把 HBM 和邏輯芯片整合到一個芯片中,在下一代 HBM 發展上,韓系和美系內存廠商涇渭分明,美光可能會告訴 AMD、英特爾和英偉達,大家可以通過 HBM-GPU 這樣的組合芯片獲得更快的內存訪問速度,但是單獨依賴某一家的芯片就意味着更大風險。
美國媒體表示,隨着機器學習訓練模型的增大和訓練時間的延長,通過加快內存訪問速度和提高每個 GPU 內存容量來縮短運行時間的壓力也將隨之增加,而為了獲得鎖定 HBM-GPU 組合芯片設計(儘管具有更好的速度和容量)而放棄標準化 DRAM 的競爭供應優勢,可能不是正確的前進方式。
在 HBM 4 這一尚未確定的標準上,美光似乎想來一場 “偷襲”。
寫在最後
毋庸置疑的是,HBM 是所有內存廠商的機會,只要 AI 熱潮還未褪去,英偉達的 GPU 尚在熱賣,大家就能繼續賣利潤頗豐的 HBM,就能交出成績還不錯的財報。
兩家韓國廠商不僅在市場上開始爭奪,彼此都在瘋狂擴產,在技術路線上也展開了較量,意圖拿到下一代標準的話語權,我們或許會看到今年三星和 SK 海力士在 HBM 上更多的動作。
而美光在押寶失敗後,再度投入重資在 HBM 之上,與韓廠相比,靠近英偉達的美光有着自身的優勢,考慮到此前的技術積累,它也可能會成為韓廠的最大競爭對手。
但就目前來看,90% 以上的 HBM 產能已經被 SK 海力士和三星包攬,一場韓國內戰,已無法避免。
風險提示及免責條款
市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用户特殊的投資目標、財務狀況或需要。用户應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。
