
Up 6.45%! Switch leader challenges Nvidia, who says Ethernet is not good?

交換機龍頭 Arista 在財報會上提到,其與 Broadcom 合作的 AI 集羣數據顯示,Arista 的以太網產品,相比英偉達的 InfiniBand,完成速度至少提高了 10%。
本文作者:張逸凡
來源:硬 AI
1、Arista:以太網算力集羣網絡超預期,大漲 6.45%
InfiniBand 和以太網是兩種通信協議。因為 InfiniBand 傳輸速度快、性能好,被英偉達收購後大量應用於雲廠商的數據中心。反觀以太網,因為速度慢,數據丟失等問題,一直未能服務於 AI 數據中心。因此,市場一度認為,AI 領域唯有 InfiniBand。
然而,交換機龍頭 Arista 在昨日的會議上,否認了這個説法。
就在昨日 Arista 的財報會上,公司表示 Meta 今年三月推出的兩個超大規模算力集羣中,有一個使用的是 Arista 的以太網產品。
該網絡連接了 2w4 個 H100 GPU,且性能完全不遜色於 Infiniband。參考 8000 張 H 卡可以訓練一個 GPT-4 模型,2w4 張 H100 GPU 的集羣規模可以適用於各種場景,意味着以太網絡的性能完全能夠達到 AI 算力集羣的需求。
公司預計 2025 年可以連接 1 萬到 10 萬個 GPU。
另外,公司表示其與 Broadcom 合作的集羣數據顯示,Arista 的以太網產品,相比傳統的 InfiniBand,作業完成速度至少提高了 10%。這與先前市場一直認為的以太網絡性能不及 InfiniBand 完全相反。
24Q1 業績會財務數據:
FY24Q2 營收指引 16.2-16.5 億美元(一致預期 16.2 億),Non-GAAP 毛利率約 64%(一致預期 62.5%),Non-GAAP 營業利潤率約 44%(一致預期 42.9%);
指引 2024 年全年的營收增速將高於先前交流的 10-12%;
2、ARM:與 Meta 類似,FY25 指引不及預期,盤後大跌 9%
AI 高增速背景下,市場給予了 ARM 強預期。參考前陣子 Meta 因指引不及預期的大跌,Arm 必須提供超預期的業績和預測,才能夠避免這種情況。
然而 ARM 在本週的財報會上給出的 FY25 指引並未能及預期,致盤後下跌 9%。
由於 ARM ——
與英偉達簽署了長達 20 年新協議,授權 Grace CPU(配套英偉達的算力卡一起出貨);
與亞馬遜、微軟、谷歌等雲廠商合作開發自研數據中心 CPU 芯片,供貨雲巨頭 AI 服務器;
因此,ARM 在 AI 數據中心的份額逐步提升。疊加近期 Meta、谷歌、微軟的超預期資本開支,市場本預期 ARM 維持高增速,然而 FY25 指引不及預期,導致盤後大跌。
24Q1 業績會財務數據:
FY25Q1:收入 8.75-9.25 億美元,yoy+29.6%-37.0%(一致預期 8.70 億美元);
FY25:收入 38.0-41.0 億美元,yoy+17.5%~26.8%(一致預期 40.25 億美元);
3、Citi:英特爾在微處理器的市場份額被 AMD、ARM 擠佔
英特爾 2023 年推出 “四年五節點” 戰略,旨在奪回自己處理器的龍頭地位。但最新數據顯示,戰略實施的並不是很順利。
根據 Citi 報告,24Q1 最新數據顯示,英特爾在服務器、台式機和筆記本電腦等各個領域都正在被 AMD 和 ARM 擠佔:
ARM:在所有領域(包括筆記本電腦、台式機和服務器)的市場份額都在穩步增長,主要是由於 ARM CPU 的高性能 + 低功耗的特點,贏得了市場的認可;
AMD:市場份額增長,尤其在服務器和台式機 CPU 市場,僅筆記本電腦市場份額略微下降,主要是因為其進軍 “高端芯片” 的戰略獲得了成功;
英特爾:總體上看,在所有領域的市場份額在減少,能看出英特爾還未從先前戰略實施錯誤的陰影中走出來;
因此,儘管英特爾在去年喊出了響亮的口號並制定了激進的公司戰略,也推出了 7nm 製程的 Ultra 系列處理器和 AI PC 的 Lake 系列處理器。但最新數據來看,公司暫未迎來轉折。
ARM ——

AMD ——

英特爾 ——

4、美銀:AI PC 處理器的競爭越發激烈
報告預測了 AI PC 市場增長,認為到 2027 年將從目前的 5000 萬台增長到 1.67 億台。2023 年全球 PC 出貨量約為 2.47 億台,相當於 2027 年近 67.6% 的電腦出貨是 AI PC。
此外,美銀對目前市場上已經發布的 AI PC 處理器做了性能排序:
從圖中可以看到,蘋果此次發佈的 M4 芯片性能僅次於高通驍龍 X,但領先於英特爾最新發布的 Lake 系列。

最後,報告中強調了內存在 AI 進步中的重要性,認為更大的 AI 模型需要更大、更快、更節能的內存,這將使美光等公司受益。
