
AI 化身 “吞電巨獸” 內存計算或成省電新招

內存計算可能成為提高人工智能(AI)能源效率的新技術,以應對 AI 高耗能所引發的經濟和環境問題。AI 行業的電量消耗預計將在未來幾年大幅增加,而 AI 所需的大量數據傳輸過程需要消耗大量電力。因此,研究人員一直致力於開發能夠在存儲數據的地方處理數據的芯片,即內存計算。雖然內存計算目前仍面臨技術挑戰,但這一技術的應用可能會帶來巨大回報。
智通財經 APP 獲悉,隨着人工智能 (AI) 的繁榮,作為 AI 基礎設施核心組成部分的電力資源正在引起越來越多的關注。毫無疑問的是,AI 是一個高耗能的領域,數據中心、超級算力中心都堪稱 “吞電巨獸”。有專家推算認為,到 2027 年,AI 行業每年的電量消耗可能在 85 到 134 太瓦時之間,這幾乎相當於荷蘭一個國家的年度電力需求。國際能源署 (IEA) 此前的一份報告也指出,由於人工智能和加密貨幣的需求,數據中心的用電量將在不久的將來大幅增加。
不少行業大佬也都 AI 可能面臨的能源危機發出警告。今年 1 月,OpenAI 首席執行官薩姆·奧特曼承認,AI 行業正面臨能源危機。他警告稱,未來 AI 需要能源突破,因為 AI 消耗的電力將遠遠超出人們的預期。特斯拉 (TSLA.US) 首席執行官馬斯克在 2 月底出席一場會議時也表示,芯片短缺的情況可能已經過去,但 AI 和電動汽車正在以如此迅猛的速度擴張,明年全球將面臨電力和變壓器供應緊張的問題。英偉達 (NVDA.US) 首席執行官黃仁勳更是直言:“AI 的盡頭是光伏和儲能!如果只考慮計算,我們需要燒掉 14 個地球的能源,超級 AI 將成為電力需求的無底洞。”
一個關鍵原因在於,AI 需要大量的數據,而數據在存儲芯片和處理器之間來回傳輸的這一過程需要消耗大量電力。因此,至少十年來,研究人員一直試圖通過製造可以在存儲數據的地方處理數據的芯片來節省電力。這個過程通常被稱為 “內存計算”。
內存計算目前仍面臨着技術上的挑戰,現在剛剛走出研究階段。而隨着 AI 的高耗能引發了人們對其經濟可行性和環境影響的嚴重質疑,能夠提高 AI 能源效率的技術可能會帶來巨大回報。這使得內存計算成為越來越令人興奮的話題。台積電 (TSM.US)、英特爾 (INTC.US) 和三星電子等主要芯片製造商都在研究內存計算。OpenAI 首席執行官奧特曼等個人、微軟 (MSFT.US) 等公司以及不少政府附屬實體都投資了從事這項技術的初創公司。
這項技術是否會成為 AI 未來的重要組成部分還無法確定。通常,內存計算芯片對温度變化等環境因素很敏感,而這可能會導致計算錯誤。初創公司們正在研究各種方法以改善這一點。然而,更換採用新技術的芯片往往都很昂貴,而且客户通常會猶豫不決,除非他們對重大改進有信心。初創公司也必須説服客户,新技術帶來的好處是值得冒險的。
目前,內存計算初創公司還沒有着手 AI 計算中最困難的部分,即訓練新模型,這一過程主要由英偉達等公司設計的 AI 芯片來處理。內存計算初創公司似乎不打算直接與英偉達展開競爭,它們的目標是將業務建立在推理上,即利用現有模型接收提示並輸出內容。推理不像訓練那麼複雜,但其規模也很龐大。這意味着專門為提高推理效率而設計的芯片可能會有一個前景良好的市場。
內存計算公司仍在摸索其產品的最佳用途。總部位於荷蘭的內存計算初創公司 Axelera 正瞄準汽車和數據中心的計算機視覺應用。總部位於德克薩斯州奧斯汀的 Mythic 的支持者認為,內存計算在短期內是 AI 安全攝像頭等應用的理想選擇,但最終希望它們能用於訓練 AI 模型。
行業智庫 Semiconductor Research Corp.的首席科學家 Victor Zhirnov 表示,AI 能源使用的巨大規模讓每個人都迫切需要研究如何提高這項技術的效率。他直言:“AI 迫切需要節能的解決方案,否則它會很快自殺的。”
