
Is the "price game" of AI chips emerging? Will Nvidia's monopoly face variables?

英偉達股價跌了,是 AI 芯片賣不動了?“客户最關心的是新品價格;英偉達被認為可能需要在 H200 等新品芯片價格的定價區間上更加靈活,尤其是某些特定產品性能降級的情況下。因此,一些客户可能傾向於暫時觀望,等待他們能接受的市場價格。”
智通財經 APP 獲悉,截至週二美股收盤,AI 芯片領導者英偉達 (NVDA.US) 股價下跌約 1%,在此之前股票研究以及市場情報提供商 Edgewater Research 表示,自今年年初以來,該芯片巨頭的人工智能 GPU 芯片渠道需求展望首次出現 “喜憂參半” 的預期數據。在需求端,買賣雙方 “價格博弈” 信號已經出現,尤其是一些買家選擇觀望,等待他們能接受的市場價格。
這家市場研究公司指出,2024 年數據中心 GPU 出貨量的渠道預測數據基本保持不變,並且基於 COWOS 先進封裝技術的芯片供應短缺仍然將持續一段時間,特別是來自台積電 (TSM.US) 的芯片供應量將持續緊張。
Edgewater Research 補充稱,英偉達的客户們仍在試用 H200 和 L20 芯片,預計將在 2024 年上半年客户試用規模將增加。“客户最關心的是新品價格;(英偉達) 被認為可能需要在 H200 等新品芯片價格的定價區間上更加靈活,尤其是某些特定產品性能降級的情況下。因此,一些客户可能傾向於暫時觀望,等待他們能接受的市場價格。” Edgewater Research 表示。
該公司表示,目前還不清楚為什麼英偉達的人工智能 GPU 需求突然出現了 “好壞參半” 的數據預測點,不過人們猜測最有可能的原因是全新 H200 AI 芯片的正式推出 (於上個月宣佈),以及最強大競爭對手之一 AMD 發佈號稱 “最強算力” 的 AI 芯片 Instinct MI300X,這一局面導致主要客户在重新考慮 GPU 採購計劃時暫停購買,直至等到英偉達報出他們認為合理的市場價格。然而,該研究機構補充表示:“這也可能表明 2024 年中期的英偉達新產品潛在需求將因性能等優勢而重新加速。”
AMD 並未透露 MI300X 的定價,但 AMD 首席執行官蘇姿豐表示,AMD 的芯片必須比英偉達的芯片購買和運營成本更低,才能説服潛在大客户購買。
Edgewater Research 在研究報告中寫道:“令人鼓舞的是,統計渠道對英偉達數據中心地位和 AI 芯片需求的長期評論仍然具有建設性,英偉達旗艦產品在數據中心的應用比例仍在不斷擴大,在英偉達芯片加速驅動下,無論是基於人工智能還是非人工智能應用的潛力都非常大。”
該研究機構還對英偉達的競爭對手 AMD (AMD.US) 和英特爾 (INTC.US) 的新產品發表了較為積極的看法,並指出,預計到 2024 年,AMD 的人工智能部署將帶來至少 10 億美元的營收規模。英特爾旗下的各類芯片產品可能將受益於 PC 端需求持續復甦,因為該機構預計到 2024 年,個人電腦銷量將同比增長 2% 至 5%。
展望未來,AI 芯片領域的競爭局勢或將愈發激烈
英偉達在 2023 年堪稱是全球股票市場最火熱的投資標的,得益於去年 ChatGPT 橫空出世引發的人工智能投資狂潮,在 AI 芯片領域處於毫無爭議壟斷地位的英偉達股價暴漲,該股在 2023 年的表現異常出色。今年以來,英偉達股價漲幅達到了驚人的 240%。這一成就不僅令該股輕鬆超過美股基準指數——標普 500 指數 (S&P 500),同時年內漲幅位列七大科技巨頭之首。美股市場的七大科技巨頭 (Magnificent Seven) 包括:蘋果、微軟、谷歌、特斯拉、英偉達、亞馬遜以及 Meta Platforms。
全球 AI 芯片領導者英偉達在 AI 芯片領域份額接近 90%,AMD 則遠遠不及英偉達,然而在 AMD 發佈號稱 “最強算力” 的 AI 芯片 Instinct MI300X 之後,英偉達壟斷地位毫無疑問將面臨來自 AMD 的巨大威脅。“Advancing AI” 發佈會上,AMD 將截至 2027 年的全球 AI 芯片市場規模預期,從此前預期的 1500 億美元猛然上修至 4000 億美元,而 2023 年 AI 市場規模預期僅僅為 300 億美元左右。華爾街大行花旗預計明年 AI 芯片市場規模將在 750 億美元左右,同時預計 AMD 能夠佔據 10% 左右的市場份額。
除了面臨來自 AMD 的競爭壓力,英偉達還面臨各大雲服務巨頭自研 AI 芯片帶來的競爭壓力。比如谷歌近期宣佈推出新版本的 TPU 芯片 TPU v5p,旨在大幅縮減訓練大語言模型時間投入,v5p 是今年早些時候全面推出的 Cloud TPU v5e 的更新版本。全球第一大公有云巨頭——亞馬遜旗下的 AWS 近期宣佈推出為生成式 AI 和機器學習訓練而設計全新自研 AI 芯片 AWS Trainium2,性能比上一代芯片提高到 4 倍,可提供 65ExaFlops 超算性能。微軟近期宣佈推出第一款定製的自研 CPU 系列 Azure Cobalt 和 AI 加速芯片 Azure Maia,後者是微軟首款人工智能芯片,主要針對大語言模型訓練,預計將於明年初開始在微軟 Azure 數據中心推出。
據瞭解,有着 “OpenAI 勁敵” 之稱的人工智能初創公司 Anthropic 已經成為首批使用谷歌 TPU 芯片的公司之一,其他在人工智能領域備受矚目的初創公司,如 Hugging Face 和 AssemblyAI 也在大規模使用谷歌 TPU 芯片。據媒體報道,Anthropic 還計劃用 Trainium2 芯片構建新的 AI 大模型。
從技術層面上來看,與英偉達 A100/H100 等通用型 GPU 相比,谷歌 TPU 設計初衷正是專注於深度學習領域,尤其是全面加速神經網絡訓練和推理效率。英偉達的 A100 和 H100,它們屬於廣義上的通用型 GPU,而不僅僅侷限於深度學習和人工智能領域。這些 GPU 具有通用計算能力,適用於多種計算工作負載,包括但不限於:高性能計算 (HPC)、深度學習以及大規模數據分析。
與英偉達通用型 GPU 相比,谷歌 TPU 採用低精度計算,在幾乎不影響深度學習處理效果的前提下大幅降低了功耗、加快運算速度,尤其對於中型 LLM 設計者來説完全夠用,因此他們可能不需要依賴高性能的英偉達 A100/H100。同時,TPU 使用了脈動陣列等設計來優化矩陣乘法與卷積運算。谷歌 TPU 追求專注於 AI 訓練和推理,因此精簡化部分設計架構,這也是 TPU 功耗、內存帶寬和 FLOPS 都明顯低於英偉達 H100 的部分原因。
