
阿里、微軟放出大動作,A 股算力龍頭巨震,發生了什麼?

天風國際證券分析師郭明錤發文稱,微軟、Meta 近期削減服務器訂單規模;此外阿里雲宣佈史上最大規模降價。
4 月 26 日,服務器&算力多隻個股盤中巨震,中科曙光、工業富聯等前期龍頭跌停,浪潮信息跌近 7%。
消息面上,據天風證券分析師郭明錤表示,微軟近期大幅調降了今年服務器訂單。此外,阿里雲宣佈史上最大規模降價,核心產品價格全線下調 15%至 50%,存儲產品最高降幅達 50%。
巨頭現砍單服務器 “傳聞”
天風國際證券分析師郭明錤最新分析稱:微軟調降 2023 年服務器訂單約 25–30%(主要砍下半年訂單)。當中備受期待的 Intel Sapphire Rapids 的服務器砍單幅度高達 50–70%。由此,供應鏈對微軟的服務器出貨量在 2023 年或將同比衰退,顯著低於市場預期的 10%+ 的同比成長。
此外,其同時指出,Meta 先前已砍單,故近期砍單幅度沒有微軟顯著。然而,Meta 依舊調降了 2023 二季度服務器訂單約 30–40%,並對下半年訂單保守看待,顯示當前服務器市場需求仍相當疲弱。
阿里雲宣佈史上最大規模降價
4 月 26 日,阿里雲宣佈史上最大規模降價,核心產品價格全線下調 15%至 50%,存儲產品最高降幅達 50%。
為什麼降價?分析認為,一方面是阿里雲自身成本下降。
根據阿里雲官方披露的數據,過去十年,阿里雲將計算的成本降低了 80%,存儲成本下降了近 9 成。
“規模效應和持續投入自研技術,是阿里雲能夠持續降價的底氣所在。” 阿里雲官方表示,阿里雲自研 CPU 倚天 710、雲操作系統飛天和雲基礎設施處理器 CIPU 的組合,讓數據庫、大數據和 AI 及高性能計算、視頻編解碼等場景性價比提升了 80% 以上。
另一方面,則是為了搶佔客户
據全天候科技報道,目前,中國 IT 市場的雲計算滲透率不到 15%,中國數據中心的 CPU 利用率僅為 10% 左右。雲計算可以大幅提升計算資源的利用率,雲數據中心內的 CPU 平均利用率,可以達到傳統數據中心的 5 倍以上。
雲計算是數字基礎設施的重要部分,根據資源配置方式的不同,可分為 IaaS、SaaS 和 PaaS。其中 IaaS 主要提供計算基礎設施服務,PaaS 主要提供軟件研發平台服務,SaaS 主要提供互聯網軟件服務。
當前國內雲計算市場以 IaaS 為主,2021 年佔比 74%,全球 IaaS 供應商主要有 AWS(亞馬遜雲)、Azure(微軟雲)、阿里雲、谷歌雲華為雲等。其中 AWS 是全球公有云 IaaS 市場的領先者,阿里雲是國內公有云 IaaS 市場的領先者。
而 IaaS 市場以 IT 基礎設施為業務平台,為用户提供服務器、存儲、網絡等計算資源服務。服務器作為上游,所以今天相關的個股動靜比較大。
據悉,IaaS 市場上游硬件資源的同質化決定了其產品功能難以實現差異化。因此價格成為用户選擇廠商的主要因素,廠商之間價格競爭較為激烈。
在 IaaS 推廣早期,企業往往通過降價策略快速積累客户,形成規模效應,同時低價策略也能對新進入市場者形成擠壓,尤其是對資金實力並不雄厚的中小企業。
AWS 曾在 2011-2013 年連續 3 年每年降價 12 次,以此快速積累客户,後期隨着競爭格局逐漸穩定,降價頻率有所降低。阿里雲歷史上也曾多次打出降價重拳。2014 年,阿里雲也曾在年內六次降價。2016 雲棲大會上,阿里雲宣佈中國區雲產品全線下調。
可能對AI行業產生哪些影響?
德邦證券此前曾預測,阿里雲進一步降價,將釋放技術紅利,未來將推動 AI 進一步普及。一方面,阿里內部的釘釘、天貓精靈已經在測試接入大模型;另一方面,阿里雲也在積極建設開源的 AI 社區生態。
去年 11 月,阿里雲正式提出 Model as a Service” 理念,並推出國內首個 AI 模型社區 “魔搭”。“魔搭” 社區總用户量已超 100 萬,模型總下載量超 1600 萬次,成為國內規模最大的 AI 模型社區。
西部證券認為,隨着 OpenAI 技術的迅速迭代,展望未來 ChatGPT 成本還有進一步下降的空間,目前這個階段可以認為已經看到初步應用的拐點。
AI 服務器需求方興未艾
雖然巨頭在砍單,但綜合多家券商研報,有一點是比較確定的,大模型時代將拉動 AI 服務器需求提升。
資料顯示,按照用途劃分,服務器可以為通用型服務器和專用型服務器(比如 AI 服務器)兩類。
招商證券指出,隨着 AI 大模型的發展和應用推廣,算力需求將與日俱增,數據中心或將成為未來核心競爭力保障之一,而服務器作為數據中心的核心設備未來亦有望受益於算力需求的增長浪潮。
其表示,服務器佔數據中心購置成本的 70%,當前全球服務器的年度出貨量級約在 1300 萬台左右,預計 2022 年 AI 服務器佔 1%,同時考慮到採用 GPU 服務器的數據中心購置成本將顯著低於純 CPU 方案的數據中心,預計未來 AI 服務器出貨量增速將高於行業整體,佔比亦將逐步提升。
其指出,從通用服務器到 AI 服務器,一個最顯著的變化就是 GPU 取代了 CPU 成為整機最核心的運算單元以及價值量佔比最大的部分,傳統服務器通常至多配備 4 個 CPU+ 相應內存和硬盤,在 AI 服務器中,通常是 2 顆 CPU+8 顆 GPU,部分高配 4U 服務器中甚至可以搭配 16 顆 GPU,預計 AI 服務器中 GPU+CPU+ 存儲的價值量佔比有望達到 80% 以上的水平。
市場空間方面,其預計未來 5 年 AI 大模型訓練端和推理端,AI 服務器市場規模超 2000 億元。
此外,據國金證券研報,服務器 PCIe Retimer 芯片龍頭公司此前表示,AI 服務器出貨二季度環比提升 20%~30%,三季度環比提升 50%~60%,四季度環比提升 20%。
