What issues are being discussed in the AI PC era from the Lenovo conference call? | AI Dehydration

華爾街見聞
2024.05.25 06:39
portai
I'm PortAI, I can summarize articles.

2024 年逐步放量,2025-2026 年進入加速階段,滲透率即將超過 15% 加速拐點。

本文作者:張逸凡

編輯:申思琦

來源:硬 AI

在 AI 服務器之後,市場的焦點轉向了 AI 手機和 AI PC。

在高通基於新 ARM 架構核心驍龍 8 Gen4 上市即將到來之時,市場對 AI PC 的關注越來越高,在本週的財報電話會上,聯想透露了一些自身和行業的新進展。

1、“五大要素” 定義 AI PC

市場上對 AI PC 的定義各不相同,目前微軟給出的定義市場認可度高,具體包括:

1)內存方面,基礎 AI 模型需要 16GB 內存,標準 AI 模型則需要 32GB,高級 AI 模型則要求 64GB 或更多;

2)算力方面,至少要有 40TOPS 的算力;

聯想則在此基礎上完善了自己的 AI PC 定義,包括五個關鍵要素:

1)內置了壓縮大模型;

2)配備自然語言交互能力的 AI 助手;

3)硬件方面,需要同時擁有 CPU、GPU 和 NPU;

4)能幫助用户建立個人知識庫;

5)重視用户個人隱私的保護;

結合微軟提出的 AI PC 內存和算力標準,AI PC 的形態愈加清晰:AI PC 不僅智能且強大,還能為用户提供更個性化、更安全的體驗。

2、AI PC 滲透率的變化預測

按照聯想自己的定義,目前市場上符合要求的產品較少,聯想在電話會中預計今年的比例會在十個百分點以下。

聯想預測,2024 年公司出貨的 PC 中,大約 20% 會配備 NPU(神經處理單元)。到了 2026 年,根據聯想的嚴格定義,AI PC 的滲透率可能達到 50% 到 60%。目前,聯想每年的出貨量在 5500-6000 萬台之間,60% 的出貨量意味着大約有 3600 萬台是 AI PC。

美國市場營銷專家 Geoffrey Moore 有一個 “市場滲透率加速定律”,他認為當新產品或服務的市場滲透率達到 15% 時,其增長速度會加快,並最終達到 50% 左右。之後,增長速度會逐漸放緩,直至穩定。

所以,AI PC 的出貨量可能會在 2024 年逐步增加,2025 到 2026 年進入快速增長階段,這將為整個產業鏈帶來新的機遇。

3、x86 和 ARM 的市場份額

ARM 替代 x86 架構是市場近期關注的一個核心問題,這將對 AI 時代換機潮比例起到重要作用。

會議上,聯想表示未來將會出現 x86 和 ARM 兩種架構並存的局面。

x86 的指令較長,通常在一條長指令中包含多個任務。而 ARM 則相反,擅長將一條長指令拆分成多個短指令。換句話説,ARM 擅長將複雜任務分解成簡單任務。這樣做的好處是可以降低 CPU 的功耗,同時還能保持高性能。

英特爾和 AMD 在 x86 架構時代,一直佔據市場的大部分份額。然而,隨着 AI 計算時代到來對功耗要求的提高,市場開始逐漸傾向於使用 ARM 架構。英偉達、AMD、高通和聯發科都已經推出了基於 ARM 架構的 CPU 處理器。

不過,聯想也提到,對於 AI 處理器來説,除了功耗之外,還有很多其他重要的衡量標準。未來,x86 和 ARM 之間必定會展開激烈競爭。這樣的競爭對 AI 服務器廠商來説是個好消息,因為無論是從成本還是處理器選擇的角度來看,這都是一個優勢。

4、供應鏈變化

根據高盛發佈的數據顯示,GPU 的供貨時間正在不斷縮短。英偉達在本週的財報會議上也表示,H100 顯卡的供應緊張狀況已經有所緩解。

聯想在此次會議上提供了更詳細的數據:去年,GPU 的等待週期大約為 52 周。今年年初,這一週期已從 52 周縮短到 26 周,而到目前為止,等待週期又進一步減少。

供貨週期的縮短,對於聯想、戴爾、惠普和超微電腦等服務器供應商來説是個好消息,因為這意味着服務器的出貨將不再受制於供應短缺。然而,聯想也指出,具體何時能夠完全解決供應鏈問題,目前仍不確定。

5、Copilot 和小天

由於眾所周知的原因,國內的 Windows 電腦無法直接使用微軟的 Copilot。為了在 PC 上解決 AI 助手的問題,聯想推出了自己的端側大模型助手 “聯想小天”。

與 Copilot 需要依賴雲端運行不同,“聯想小天” 可以完全在本地運行。

根據科技博主 “卡茲克” 的評測,“聯想小天” 具備本地運行和雲端運行兩種模式,用户可以根據需要自由切換。

這種設計不僅保證了用户的數據隱私,還能在需要時利用雲端處理複雜任務。

從功耗來看,“卡茲克” 的數據表明,本地模型雖然運行在 CPU 上,但耗電量很低。這個大模型常駐後台,需要大約 4G 的內存。此外,在進行推理時,對 CPU 的影響也基本可以忽略不計。

功能方面,本地模型能夠完成郵件擬稿、語音轉錄、會議總結等任務,性能相當於 GPT-3.5 水平的模型,已經足夠滿足日常辦公需求。

總體來看,聯想電話會對 AI PC 透露出樂觀的態度,上游芯片廠商在 ARM 時代的競爭會進一步加劇,聯想表示目前看不清誰能快速跑出,但認為上游的激烈競爭對下游 PC 廠商是有利的,更快的技術進步有利於換機潮的到來。