China is not only home to DeepSeek; Alibaba launched a major new model on New Year's Eve. Is it time to reassess China's AI assets as a whole?

華爾街見聞
2025.01.29 04:05
portai
I'm PortAI, I can summarize articles.

當阿里雲展現出” 強大模型 + 充足算力 + 完整雲平台” 的組合優勢時,是否印證了類似去年北美雲計算服務商的投資邏輯?

農曆除夕夜,在全球華人喜迎新春之時,紐約證券交易所的電子屏上,阿里巴巴美股股價在收盤前出現顯著異動——從漲幅 1% 快速拉昇至 6.7%。

行情異動的背後,是一場沒有硝煙的技術奇襲。

1 月 29 日凌晨,阿里通義千問團隊悄然上線的大模型 Qwen2.5-Max,在多個權威基準測試中展現出與全球頂級模型比肩的性能。

繼 DeepSeek 之後,Qwen2.5-Max 的發佈是中國 AI 陣營在高性能、低成本技術路線上的又一重要突破。

市場人士分析稱,此前過度聚焦 DeepSeek,卻忽視了包括阿里通義在內的中國 AI 整體性追趕。行業媒體《信息平權》表示,若阿里 Qwen-2.5-max 這次的確性能超過 V3,可以對其 RL 推理模型給予更大期待。

進一步,當阿里雲展現出"強大模型 + 充足算力 + 完整雲平台"的組合優勢時,是否印證了類似去年北美雲計算服務商的投資邏輯?如果美股因 AI 整體增值 10 萬億美元,中國 AI 資產的重估時機是否已至?

全面對標全球頂級模型,百萬 token 里程碑

Qwen2.5-Max 採用超大規模 MoE(混合專家)架構,基於超過 20 萬億 token 的預訓練數據。

在測試大學水平知識的 MMLU-Pro、評估編程能力的 LiveCodeBench、綜合能力評估的 LiveBench,以及近似人類偏好的 Arena-Hard 等多個權威評測中,該模型均展現出與 DeepSeek V3、GPT-4 和 Claude-3.5-Sonnet 比肩,甚至領先的性能。

阿里團隊表示,隨着後訓練技術的不斷進步,下一個版本將有望達到更高水平。

Qwen2.5 團隊同步發佈了兩個創新型號:Qwen2.5-7b-instruct-1m 和 Qwen2.5-14b-instruct-1m。這些開源模型支持高達 100 萬 token 的上下文窗口,成為業內首個達到此規模的公開可用模型。

這些模型使用稀疏注意力,只關注上下文中最重要的部分。這種方法處理百萬 token 輸入的速度比傳統方法快 3 到 7 倍,輸出長度可達 8000 個 token。然而,這需要模型識別上下文文檔中的關鍵段落——這是當前語言模型經常難以完成的任務。

在測試中,14B 型號和 Qwen2.5-Turbo 在查找非常長的文檔中的隱藏數字時都達到了完美的準確性。較小的 7B 型號也表現良好,只有輕微的錯誤。

在 RULER、LV-Eval 和 LongbenchChat 等要求更高的複雜的上下文測試中,百萬 token 模型的表現優於 128K token 模型,尤其是在超過 64K token 的序列中,14B 型號甚至在 RULER 中得分超過 90 分——這是 Qwen 系列的第一次——在多個數據集上持續擊敗 gpt - 4o mini。

是時候整體重估中國 AI 資產了嗎?

如果説 DeepSeek V3 的橫空出世展現了中國 AI 的鋭度,那麼本次阿里的突破則體現了產業生態的深度進化。

在 Qwen2.5-Max 發佈當天,阿里雲百鍊平台同步開放了完整的工具鏈支持,開發者可以直接在雲端調用。這種"超算集羣 + 開源生態 + 雲原生"的三位一體架構,與北美 AWS、Azure、GCP 三大雲服務商的商業模式形成鏡像。

此外,根據我們之前提到的摩根士丹利最新研報,低成本高性能模型也將重塑數據中心和軟件行業格局:

  • 對於中國數據中心而言,短期內,如果大型科技公司採用類似技術路線,可能減少 AI 訓練相關需求。但從長遠來看,低成本模型將推動推理需求增長,對一線城市數據中心形成利好;
  • 對於中國軟件行業,AI 模型成本的降低將降低應用程序運行 AI 功能的門檻,從供給側改善行業環境。

如果阿里 Qwen-2.5-max 的性能確實展現出預期水平,加之其低成本優勢與完整雲生態,或引發 DeepSeek 之後的中國 AI 資產新一輪重估。