What does the shift of AI towards "reasoning models and the era of agents" mean for AI trading?

華爾街見聞
2025.03.08 09:33
portai
I'm PortAI, I can summarize articles.

如果 Scaling Law 繼續有效, 繼續看好 AI 系統組件供應商(如芯片、網絡設備等),謹慎對待那些不得不持續投入鉅額資本支出的科技巨頭。如果預訓練縮放停滯: 看好科技巨頭(因為自由現金流將回升),並關注那些擁有大量用户、能夠從推理成本下降中獲益的應用類股票。

還抱着 “越大越好” 的 AI 模型不放?華爾街投行巴克萊最新研報給出了一個顛覆性的預測:AI 行業正經歷一場 “鉅變”(Big Shift),“推理模型” 和 “Agent” 將成為新時代的弄潮兒,而 “大力出奇跡” 的傳統大模型,可能很快就要過氣了!

這場變革的核心,是 AI 模型從 “死記硬背” 到 “舉一反三” 的進化。過去,我們追求更大的模型、更多的參數、更海量的訓練數據,堅信 “量變產生質變”。但現在,巴克萊指出,這條路可能已經走到了盡頭。

算力無底洞、成本高企、收益卻難以匹配……傳統大模型的 “軍備競賽” 讓眾多科技巨頭苦不堪言。更要命的是,用户真的需要那麼 “大” 的模型嗎?在許多場景下,一個更 “聰明”、更會推理的小模型,反而能提供更精準、更高效的服務。

這究竟是怎麼回事?對於投資者來説,這場 AI 鉅變又意味着什麼?

“推理” 時代降臨,小模型也能辦大事!

巴克萊在報告中指出,AI 行業正在發生一系列重大轉變:

  • 從傳統的大語言模型(LLM)轉向新型推理模型;
  • 從聊天機器人轉向 Agent;
  • 從預訓練轉向測試時計算(test-time-compute);
  • 從通用訓練芯片轉向定製推理芯片;
  • 從集中式超大規模集羣轉向更小、更靠近邊緣的計算集羣。

簡單來説,AI 模型不再一味追求 “大”,而是更注重 “巧”。通過引入 “推理” 能力,模型可以在處理任務時進行多步思考、反覆驗證,從而得到更準確的結果。

這種 “鏈式思考”(Chain-of-Thought,CoT)模式,讓 AI 模型更像一個 “專家”,而不是一個 “書呆子”。更重要的是,它還實現了成本與收益的更好匹配:任務越複雜,需要的算力越多,反之亦然。

巴克萊指出,像 OpenAI 的 o1、o3 模型,以及 DeepSeek 的 R1 模型,都已經在實踐中證明了推理模型的強大潛力。它們不僅在多個基準測試中超越了傳統大模型,而且訓練成本更低、推理效率更高。

Agent 崛起:AI 應用的新範式

除了推理模型,巴克萊還強調了 Agent 在 AI 應用層面的重要性。Agent 可以理解為一種更智能、更自主的 AI 應用,它不僅能回答問題,還能執行任務、完成交易。

如果説聊天機器人還停留在 “對話” 階段,那麼 Agent 則已經開始 “行動”。它們可以被應用於各種場景,如客户服務、金融分析、軟件開發等,極大地提高了生產力和效率。

巴克萊預測,隨着推理模型和 Agent 技術的成熟,AI 的應用將迎來爆發式增長。ChatGPT 用户數在短短兩個月內增加了 1 億,就是最好的證明。

“錢” 景大不同:Chinchilla 縮放定律或將終結

這場 AI 鉅變,對整個行業的 “錢” 景產生了深遠影響。巴克萊提出了兩種可能的情景:

  1. Chinchilla 縮放定律繼續有效: 模型規模持續擴大,參數數量和訓練數據量不斷增長。到 2028 年,最先進的模型可能達到 65 萬億參數,並在 325 萬億個 token 上進行訓練。
  2. 預訓練縮放停滯: 模型規模在 GPT-5 級別後不再增長,行業轉向推理模型和測試時計算。

在第二種情景下,巴克萊預測,到 2028 年,AI 行業的總計算需求仍將高達 1 萬億美元,但遠低於 Chinchilla 縮放定律持續有效的情況。

更重要的是,推理成本將大幅下降。這意味着,科技巨頭們不再需要為訓練超大模型而 “燒錢”,而是可以將更多資源投入到推理模型的優化和應用上。

算力缺口依舊巨大,推理芯片需求激增

儘管預訓練縮放可能停滯,但巴克萊認為,AI 行業的算力需求仍然巨大。即使在 “停滯” 情景下,到 2028 年,全球仍將面臨 2500 億 exaFLOPS 的推理算力缺口。

這意味着,對推理芯片的需求將持續增長。巴克萊預計,到 2028 年,推理計算將佔整個 AI 行業的 50% 以上。

開源 AI 崛起,但短期內難撼大局

巴克萊還關注到了開源 AI 的快速發展。像 Llama 和 DeepSeek 這樣的開源模型,正在吸引越來越多的開發者和用户。

然而,巴克萊認為,開源 AI 在短期內還不足以對整個行業產生重大影響。原因在於,微調或精簡開源模型的成本相對較低,遠不及訓練一個像 GPT-4.5 或 Claude 4 這樣的大模型。

AI 投資邏輯鉅變:押注 “效率” 而非 “規模”

那麼,對於投資者來説,這場 AI 鉅變意味着什麼呢?巴克萊給出了明確的建議:

  • 如果 Chinchilla 縮放定律繼續有效: 繼續看好 AI 系統組件供應商(如芯片、網絡設備等),謹慎對待那些不得不持續投入鉅額資本支出的科技巨頭。
  • 如果預訓練縮放停滯: 看好科技巨頭(因為自由現金流將回升),並關注那些擁有大量用户、能夠從推理成本下降中獲益的應用類股票。

總之,無論 AI 行業走向何方,投資者都應該更加關注 “效率” 而非 “規模”。那些能夠以更低成本、更高效率提供 AI 服務的公司,將在未來的競爭中佔據優勢。