How American long-term investors of NVIDIA view the impact of DeepSeek

華爾街見聞
2025.01.28 01:15
portai
I'm PortAI, I can summarize articles.

本文探討了 DeepSeek AI 對 Citrini Research 最新文章的解讀,強調了中國在人工智能領域的創新能力。DeepSeek 推出的開源模型性能已接近 OpenAI 和 Anthropic 的頂尖水平,儘管面臨英偉達的競爭和美國製裁的挑戰。文章指出,投資者對這些模型的成本效率感到擔憂,但效率提升是積極的信號。

三思注:本文我們一個字都沒寫,全文都是 DeepSeek AI 對於 Citrini Research 今日最新文章的解讀。美國這家投研機構是英偉達的長期投資者,同時也在 24 年 6 月加入了 A/H 半導體的交易。

DeepSeek 輸出的內容我是一個字都沒有改,甚至標題加粗這些排版工作也都是 AI 做的。我把 DeepSeek 的思考過程也都截圖進來了,大家可以感受下。圖片可能有點糊,主要是微信壓縮的原因,我把文章英文原文和這篇 AI 解讀一起發了,大家可以對比下。

因為我也想多看看 DeepSeek 的思考過程,所以也多問了幾個視角,分別是:作者介紹-》中文標題(我給它文檔的時候忘了發標題,靠它自己理解的)-》推薦語-》全文翻譯-》內容框架

----

中文標題(我上傳文檔的時候忘了發標題):

推薦語:

全文翻譯:

本週,來自中國人工智能開發商深度求索(DeepSeek)的兩個全新開源模型引發全球關注,其性能已可媲美 OpenAI 和 Anthropic 的頂尖基準水平。

我們對此並不感到意外。實際上,自去年夏季起,我們就預期中國在硬件受限的背景下會通過架構創新實現突破:

“通過專注於依賴更少英偉達(NVDA)式硬件的研究方向,他們可能找到超越當前範式的新方法。

但必須承認,這將是一場艱苦的戰鬥。英偉達的領先優勢巨大,美國製裁更是難以逾越的障礙。然而,從中國崛起為科技超級大國的歷程中,我們學到最重要的一課是:永遠不要低估他們。”

《Citrindex 一週年報告》,發佈於 CitriniResearch.com,2024 年 6 月

諷刺的是,這些模型的成本效率卻嚇壞了投資者,併為那些急於宣告 “AI 熱潮終結” 的人提供了彈藥。但無論是看空者還是看多者,都未抓住問題的核心。

效率提升是好事,而英偉達並不等同於 AI。英偉達只是為滿足大語言模型(LLM)的巨大算力需求提供關鍵硬件,並在此前的 AI 軍備競賽中成為最核心的贏家。

自 2023 年 5 月首次覆蓋 AI 領域以來,我們始終聚焦於 “鏟子與鎬頭”(即 “AI 革命第一階段”)的投資策略。

在商業化路徑和產品贏家尚未明朗時,我們選擇押注已知的確定性——財力雄厚的超大規模雲廠商將在硬件和數據中心基礎設施上投入數百億美元。微軟(MSFT)和 Meta(META)最新上調的資本支出指引表明,這場建設熱潮仍未放緩。

但繼續以 ‘未來 AI 形態不明,因此默認投資基礎設施’ 為藉口正變得越來越困難。儘管過去兩年我們的重心在此,但我們的投資邏輯從來不是 ‘數據中心’。我們不能因留戀過去的成功而忽視技術演進。從一開始我們就主張:AI 基礎設施完善後,大語言模型將走向商品化和民主化,從而開啓下一階段的產品開發與真實場景應用。

我們還預期,大語言模型的商品化將成為第二波 AI 投資的關鍵標誌——從基礎設施轉向應用產品。在此過程中,中國通過持續提升 LLM 效率或挑戰 CUDA 生態/訓練專用芯片(ASIC),仍將扮演重要角色。

無論直接還是間接,深度求索(DeepSeek)的突破都是 AI 演進中的重要進展,投資者需警惕其潛在影響。

別隻聽我説,以下是微軟 CEO 薩提亞·納德拉(Satya Nadella)的觀點:

更廉價、更優質的模型可能確實會衝擊那些依賴資本支出膨脹估值的公司,但對 AI 商業化卻是一大利好。事實上,訓練成本(以及較小程度上的推理成本)過高始終是 AI 軟件盈利的最大障礙。或許通過頂級開源模型的民主化,需求將再次超越供給。

無論這場辯論結果如何(我們後續將深入探討),我們愈發確信:AI 投資的第二階段已拉開帷幕。

但在深入討論前,先來了解深度求索(DeepSeek)究竟是什麼。

深度求索(DeepSeek)(傻瓜版)

深度求索(DeepSeek)發佈了兩款新模型——DeepSeek-V3 和 DeepSeek-R1,以及名為 “R1 Zero” 的指令集,其性能與 OpenAI 和 Anthropic 的頂級產品不相上下。這些模型在社交媒體引發轟動,不僅因其能力比肩甚至超越知名系統,更因其 API 調用成本僅為對手的零頭。

12 個月前甚至 6 個月前,深度求索(DeepSeek)對許多人而言仍名不見經傳。但這不意味着他們是 “業餘玩家”——該公司擁有數百名工程師,並投入大量資金與時間(僅預訓練成本就達 600 萬美元)。其自研的 DualPipe GPU 通信系統和其他定製優化技術,顯著提升了硬件效率,從而降低了訓練成本。

部分神秘感源於猜測:深度求索(DeepSeek)可能秘密囤積了大量禁售 GPU(他們確實擁有許多),或中國正在發動一場認知戰(PsyOp)並偽造數據。

在分析投資影響前,本文需使用大量術語。鑑於讀者並非 AI 研究員,我們特邀一位 AI 專家協助簡化解釋。以下是核心要點(如我一般的 “傻瓜” 也能看懂):

深度求索(DeepSeek)的研究人員想驗證:能否在不依賴海量數據或複雜工具的前提下,顯著提升數學解題 AI 的能力?

他們以已有數學解題能力的模型(Qwen2.5-Math-7B)為起點,摒棄傳統人工標註數據的監督學習,轉而採用強化學習。該技術雖非新事物,但此前效果遠未如此驚豔。

想象一下:每當 AI 答對問題就獎勵一顆 “金星”——這種簡單的反饋機制引導 AI 持續優化解題策略。更驚人的是,他們僅用 8,000 道數學題就完成了訓練,而其他團隊通常需要數百萬題。

此外,他們未使用複雜的監督工具或多層反饋循環,系統邏輯極致簡潔:“答案正確=獲得獎勵。” 儘管看似簡陋,該 AI 的表現卻超越了依賴海量數據和複雜流程訓練的模型。

深度求索(DeepSeek)還融入多項巧思——如壓縮內存佔用、同時預測多組標記(token)——以極高效完成訓練。這意味着他們無需堆砌昂貴 GPU 即可實現頂尖性能。此類突破降低了成本門檻,證明小團隊若訓練方法得當,仍可與行業巨頭競爭。

總之,深度求索(DeepSeek)證明:無需鉅額資金、硬件或人工干預,也能打造擅長複雜任務的 AI。關於他們實際投入的爭論已無關緊要——通過聚焦強化學習與效率優化,他們展示了資源有限仍可創造強大模型。

他們公開了全部訓練步驟和代碼供他人復現,所謂 “審查擔憂” 顯得荒謬。最終成果是一個可本地運行於兩台 Mac Mini 的輕量版模型,性能卻媲美 Anthropic 和 OpenAI。

該過程稱為 “模型蒸餾”(model distillation),即訓練小型 “學生模型” 模仿大型 “教師模型” 的逐步推理邏輯與輸出。

深度求索(DeepSeek)(技術小白版)

深度求索(DeepSeek)的創新大幅精簡了訓練與推理流程。默認採用 8 位浮點精度(FP8),結合分塊策略、多標記預測和鍵值(KV)索引壓縮技術,其 GPU 需求僅為行業巨頭的零頭。

其混合專家(MOE)架構允許在單個模型中集成海量參數,但每次推理僅激活部分參數。例如,6710 億參數的 DeepSeek-V3 可在消費級 GPU 上運行,因為典型推理任務僅需約 370 億參數激活。

此思路並非首創。

谷歌早在 2021 年初的論文中已通過 Switch Transformer 提出類似概念。但由於訓練不穩定、多專家路由效率低下、難以適配消費級硬件等實際挑戰,該方案未獲廣泛應用。

但 R1 模型證明,該技術能有效實現專用模型的自動調優。無需監督微調的大規模強化學習使模型通過試錯自行進化。在某些人眼中,這重構了 LLM 開發的思維方式。

更少參數、更智能的訓練、更優的推理,且關鍵是完全無需人類反饋。

此外,這或許為打破英偉達的壟斷撕開一道裂口。深度求索(DeepSeek)的 PCIe 架構表明,他們無需依賴 NVLink 或每節點 8 張網卡。

未被充分關注的是深度求索(DeepSeek)的 R1 Zero 指令集(致敬 AlphaZero)。他們證明,僅憑強化學習即可實現推理時的計算擴展(即 “思考/反思”),完全無需人工監督微調。

這本身已足夠吸引人,同時也印證了 OpenAI 此前宣稱 “這只是語言模型”(無人相信)的觀點——R1 Zero 未使用蒙特卡洛樹搜索(MCTS)等複雜機制。

R1 Zero 的 “思考過程” 常顯得毫無邏輯:不僅隨意切換語言,甚至生成對人類無意義的文本。但這有其合理性:模型只是收斂於全局損失函數最小值,輸出標記本質上是為人類服務的最後一層表象。

簡言之,R1 Zero 通過 “破解” 損失函數找到了一種更優的思考方式。

大膽推測

或許人類可讀性並非 LLM 推理的最優解,某些場景下甚至構成阻礙。這為 AI 代理(Agent)的討論增添了新維度:是否需要在現有工具之上構建專為 AI 交互設計的新應用層?

R1 模型還引入了另一維度:媲美頂尖 OpenAI 模型的強健思維鏈推理能力。與 Anthropic 或 OpenAI 的封閉路線不同,深度求索(DeepSeek)不僅詳盡公開技術細節,還採用寬鬆許可供任何人復現。

其 V3 模型在混合精度訓練和 MOE 損失尖峯抑制上均取得突破,極大降低訓練成本。這再次印證:OpenAI 的 “只是語言模型” 聲明並非煙霧彈。

透明性揭示了他們如何通過純強化學習與精心設計的獎勵函數(而非海量標註數據)引導模型生成逐步邏輯,並支持自我中途修正。

他們還添加了語言一致性檢查,確保即便模型將複雜任務分解為多步,最終輸出仍清晰連貫。

我們始終耐心等待 LLM 商品化的發令槍,甚至斷言這是 AI 應用普及與智能代理(Agentic AI)升級的必要前提。意外的是,這一轉折點竟來自中國——此前 AI 領域被認為由少數西方巨頭主導,如今中國實驗室已躋身頂尖行列!

此類進展(西方或將跟進)可能預示未來不再有離散的 “新模型”,取而代之的是系統間大規模相互訓練、持續優化與遞歸自我改進。此進程將加速至超脱人類控制,最終我們甚至無法完全理解其優化目標。

Qwen 1.5b r1 蒸餾版在某些推理任務上超越 GPT-4o 和 Claude,這絕不容忽視。開源驅動的 AI 推理民主化潛力同樣值得重視。

影響

那麼,這是一場中國的認知戰嗎?

我們認為其最後一次訓練的公開數據可信,因其可被複現驗證。但總資源投入可能存在誤導性,論文已近乎明示這一點。

但效率的飛躍毋庸置疑。

週末社交媒體盛傳 “深度求索(DeepSeek)終結英偉達芯片需求” 的觀點是錯誤的。不過,本地運行的蒸餾模型將更普及,這對英偉達構成利空(我們已清倉的部分原因),但同時對 AI 整體發展與用例擴展是巨大利好。開源是深度求索(DeepSeek)的主動選擇。

這一切讓我們愈發確信:中國在 ASIC(專用芯片)上的突破將重塑硬件格局(並解答了我們此前關於 “中國會否用 ASIC 淹沒市場” 的疑問——答案是肯定的)。

我們繼續看好中國半導體產業(儘管對美國的樂觀程度略有下調)。

我們認為的未來走向

至少,市場對中國 AI 的悲觀情緒可能終結。這對我們有利——我們已佈局中國積極進展,並強化了 “中國本土半導體將在 ASIC 上突破” 的觀點。

我們最初於 2024 年 5 月將中國 AI 公司納入投資組合,並在去年 10 月的《憂慮之牆再添一磚》報告中加倍押注。

以下是它們迄今的表現:

其次,若工具成本下降,AI 代理時代將加速到來。在現有應用層之上構建專為 AI 交互設計的新層(對人類無意義)可能是最優路徑。佈局那些有望構建或整合海量代理的公司是明智之舉。我們相信,沿用 “第一階段” 基礎設施策略(先廣撒網,再隨趨勢明朗縮窄範圍)將再次奏效。

但關於 AI 本身已談得夠多。我知道你們都在問:“這對英偉達意味着什麼?”

看空邏輯顯而易見:效率提升將減少對 GPU 的需求——過去兩年全球雲廠商的資本支出狂歡正基於此。這一風險已被充分定價。

較少被討論的是另一種情景——深度求索(DeepSeek)可能成為英偉達的利好。

英偉達的看多邏輯:傑文斯悖論

“現在我們可以擁有更多 AI。”

——Dylan Patel, SemiAnalysis

或許開源與蒸餾模型將催生更多 AI 初創公司,而算力效率的提升最終被激增的需求吞噬。

推理成本已呈深度通縮趨勢,但市場並未因此恐慌。

看多邏輯是:資本支出維持不變,但模型性能遠超預期。為什麼?

因為我們並非按需優化——算力擴容只會刺激需求同步增長。更大規模的集羣仍將建設,但結果可能是加速進入 “矩陣時代”。此外,中國競爭的威脅可能進一步刺激美國巨頭加大投入。

我們的立場

我們對此熱情不高——只需看看市場對 “半萬億美元太空投資” 公告的反應:軍備競賽的下一階段形態或將不同,且未被定價的增量資本支出空間已極小。

這是我們清倉英偉達的原因——風險回報比不再具備吸引力。

正如我們在《2025 年 25 大交易》中所寫:

“我們相信,2025 年英偉達的主導地位將面臨實質威脅。這些威脅或許尚未商業化,但會成為敍事的一部分,迫使估值模型反映風險。儘管其仍擁有巨大競爭優勢(且可能延續),但我們認為英偉達的風險回報已不再誘人。

AI 訓練與推理工作負載的商品化或將在明年成為現實,推動對高性價比方案的需求,尤其是在市場度過當前爆發性增長階段後。”

這還未考慮炒作週期中的市場心理——我們無疑正處於這一週期中。

在炒作巔峯期,無需重大變故即可引發波動,只需擔憂——對過度建設、定價權喪失、利潤率下滑或競爭的擔憂。我們多數人在投資 AI 時並非專家,成功不代表市場真正理解技術。

恐慌隨時可能爆發並導致暴跌。

但有一件事必須明確:

開源、高效且商品化的 LLM 對 AI 發展極其有利,將加速真實場景中的 AI 應用與創新。

互聯網的基石是車庫裏的極客,更多開源意味着更多極客,進而催生更多 AI 產品與用例。以下是我們當前的佈局。

投資策略調整

我們的 AI 投資組合有何變化?

您可通過 Citrindex 表格的 “近期變動” 標籤查看調整詳情。

核心調整方向:正如我們在第一階段廣撒網(買入 120 家潛在數據中心受益者,隨趨勢明朗淘汰 60-70%),我們認為現在應從第一階段轉向第二階段。

我們做空 SMH(半導體 ETF)以增持可能受益於開源與 AI 代理爆發的標的,同時關注那些可能因 “第二階段需構建專為 AI 代理交互設計的新層” 而獲益的公司。

歸根結底,第一階段或會延續,但第二、三階段的非對稱收益潛力更大。主要風險在於這些公司可能掉隊或被取代,但我們對中國軟件板塊仍具信心——智能代理只是錦上添花。

以下是新增的潛在第二階段受益標的及理由:

建議重温我們最初的《AI 受益框架》與《AI 贏家/輸家》報告。儘管部分觀點已過時,但在更新認知時回顧框架仍有價值。

全文框架:

風險提示及免責條款

市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用户特殊的投資目標、財務狀況或需要。用户應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。