NVIDIA AI Summit GTC unveiled, the most powerful AI chip Blackwell is here!

華爾街見聞
2024.03.18 23:38
portai
I'm PortAI, I can summarize articles.

英偉達稱,Blackwell 的成本和能耗較前代改善 25 倍,是全球最強大芯片,由 2080 億個晶體管組成,採用台積電 4nm 製程,支持多達 10 萬億參數的模型進行 AI 訓練和實時大語言模型(LLM)推理;GB200 NVL72 推理性能較 H100 提升高達 30 倍;亞馬遜、微軟、谷歌和甲骨文在首批提供 Blackwell 支持的雲服務商之列;英偉達推出 AI 項目 Project GR00T 助力人形機器人;台積電和 Synopsys 將採用英偉達計算光刻技術;英偉達推出新軟件 NIM,讓用户更容易利用已有英偉達 GPU 進行 AI 推理。

作者:李丹

來源:硬 AI

號稱今年全球頭號人工智能(AI)領域開發者大會的英偉達 2024 GTC AI 大會於美東時間 3 月 18 日週一拉開帷幕。

今年是英偉達時隔五年首次讓年度 GTC 重回線下,也是此前分析認為英偉達要“拿出點真傢伙”的 AI 盛會。

當地時間週一下午,英偉達創始人兼 CEO 黃仁勳在美國加州聖何塞 SAP 中心進行主題為 “面向開發者的 1#AI 峯會”(1# AI Conference for Developers)演講。

Blackwell 成本和能耗較前代改善 25 倍 全球最強大芯片 台積電 4 nm 製程

黃仁勳介紹了運行 AI 模型的新一代芯片和軟件。英偉達正式推出名為 Blackwell 的新一代 AI 圖形處理器(GPU),預計將在今年晚些時候發貨。

Blackwell 平台能夠在萬億參數級的大型語言模型(LLM)上構建和運行實時生成式 AI,而成本和能耗比前代改善 25 倍。

英偉達稱,Blackwell 擁有六項革命性的技術,可以支持多達 10 萬億參數的模型進行 AI 訓練和實時 LLM 推理:

  • 全球最強大的芯片:Blackwell 架構 GPU 由 2080 億個晶體管組成,採用量身定製的台積電 4 納米(nm)工藝製造,兩個 reticle 極限 GPU 裸片將 10 TB/秒的芯片到芯片鏈路連接成單個統一的 GPU 。
  • 第二代 Transformer 引擎:結合了 Blackwell Tensor Core 技術和 TensorRT-LLM 和 NeMo Megatron 框架中的 英偉達先進動態範圍管理算法,Blackwell 將通過新的 4 位浮點 AI 支持雙倍的計算和模型大小推理能力。
  • 第五代 NVLink:為提高數萬億參數和混合專家 AI 模型的性能,最新一代英偉達 NVLink 為每個 GPU 提供了突破性的 1.8TB/s 雙向吞吐量,確保最複雜 LLM 之間多達 576 個 GPU 之間的無縫高速通信。
  • RAS 引擎 :Blackwell 支持的 GPU 包含一個專用引擎,實現可靠性、可用性和服務性。 此外,Blackwell 架構還增加了芯片級功能,利用基於 AI 的預防性維護進行診斷和預測可靠性問題。這可以最大限度地延長系統正常運行時間,並提高大部署規模 AI 的彈性,使其能連續運行數週甚至數月,並降低運營成本。
  • 安全人工智能:先進的機密計算功能可在不影響性能的情況下保護 AI 模型和客户數據,並支持新的本機接口加密協議,這對於醫療保健和金融服務等隱私敏感行業至關重要。
  • 解壓縮引擎:專用解壓縮引擎支持最新格式,加快數據庫查詢,提供數據分析和數據科學的最高性能。 未來幾年,在企業每年花費數百億美元的數據處理方面,將越來越多地由 GPU 加速。

GB200 NVL72 推理性能較 H100 提升高達 30 倍

英偉達同時介紹超級芯片 GB200 Grace Blackwell Superchip,它通過 900GB/s 的超低功耗 NVLink,將兩個 B200 Tensor Core GPU 連接到 NVIDIA Grace CPU。

為了獲得最高的 AI 性能,GB200 驅動的系統可以與週一同時宣佈的英偉達 Quantum-X800 InfiniBand 和 Spectrum-X800 以太網平台連接,這些平台可提供速度高達 800Gb/s 的高級網絡。

GB200 是英偉達 GB200 NVL72 的關鍵組件,GB200 NVL72 是一種多節點、液冷、機架規模系統,適用於計算最密集的工作負載。 它結合了 36 個 Grace Blackwell 超級芯片,其中包括通過第五代 NVLink 互連的 72 個 Blackwell GPU 和 36 個 Grace CPU。GB200 NVL72 還包括 NVIDIA BlueField®-3 數據處理單元,可在超大規模 AI 雲中實現雲網絡加速、可組合存儲、零信任安全性和 GPU 計算彈性。

相比數量的 H100 Tensor Core GPU 相比,GB200 NVL72 對於 LLM 推理工作負載的性能提升高達 30 倍,並將成本和能耗降低高達 25 倍。

GB200 NVL72 平台充當單個 GPU 具有 1.4 exaflops 的 AI 性能和 30TB 的快速內存,是最新 DGX SuperPOD 的構建塊。

英偉達推出服務器主板 HGX B200,它通過 NVLink 連接八個 B200 GPU,以支持基於 x86 的生成式 AI 平台。 HGX B200 通過英偉達 Quantum-2 InfiniBand 和 Spectrum-X 以太網網絡平台支持高達 400Gb/s 的網絡速度。

亞馬遜、微軟、谷歌和甲骨文在首批提供 Blackwell 支持的雲服務商之列

Blackwell 芯片將成為亞馬遜、微軟、谷歌這類全球最大數據中心運營商部署新電腦和其他產品的基礎。基於 Blackwell 的產品將在今年晚些時候問世。

英偉達稱,亞馬遜雲 AWS、谷歌雲、微軟雲 Azure 和甲骨文雲基礎設施 Oracle Cloud Infrastructure 將成為首批提供 Blackwell 支持實例的雲服務提供商,英偉達雲合作伙伴計劃的成員公司 Applied Digital、CoreWeave、Crusoe、IBM Cloud 和 Lambda 也將成為首批提供 Blackwell 實例的雲服務提供商。

面向主權的 Sovereign AI 雲還將提供基於 Blackwell 的雲服務和基礎設施,包括 Indosat Ooredoo Hutchinson、Nebius、Nexgen Cloud、Oracle 歐盟主權雲、Oracle 美國、英國和澳大利亞政府雲、Scaleway、Singtel、Northern Data Group 的 Taiga Cloud、 Yotta Data Services 的 Shakti Cloud 和 YTL Power International。

黃仁勳説,“三十年來,我們一直在追求加速計算,目標是實現深度學習和 AI 這類方面的變革性突破。生成式 AI 是我們這個時代的決定性技術。 Blackwell 是推動這場新工業革命的引擎。 通過與世界上最具活力的公司合作,我們將實現 AI 在各行各業的承諾。”

英偉達在公告通稿中列舉了料將採用 Blackwell 的一些組織,比如微軟、亞馬遜、谷歌、Meta、戴爾、OpenAI、甲骨文、馬斯克領導的特斯拉和 xAI。黃仁勳介紹了包括這些公司在內的更多合作伙伴。

AI 項目 Project GR00T 助力人形機器人

黃仁勳在演講中披露,英偉達推出了助力未來人形機器人的多模態 AI 項目 Project GR00T。該項目採用通用基礎模型,讓人形機器人能夠將文本、語音、視頻甚至現場演示作為輸入那日,並對其進行處理,採取特定的通用操作。

Project GR00T 由英偉達 Isaac 機器人平台工具的幫助下開發的,其中包括用於強化學習的新 Isaac 實驗室。

黃仁勳稱,由 Project GR00T 平台提供支持的機器人將被設計為,通過觀察人類行為來理解自然語言並模仿動作,使它們能快速學習協調性、靈活性和其他技能,從而適應現實世界並在與之互動,絕對不會產生機器人起義。

黃仁勳説:

“為通用人形機器人構建基本模型是當今 AI 領域能解決的最令人興奮的一個問題。將它能實現的技術融合在一起,世界各地領先的機器人專家就可以在人工通用機器人領域取得巨大飛躍。”

台積電和 Synopsys 採用英偉達光刻技術

黃仁勳還提到,台積電和 Synopsys 將採用英偉達計算光刻技術,起用英偉達的計算光刻平台 CuLitho。

台積電和 Synopsys 已經整合英偉達的 Culitho W 軟件。他們將用英偉達的下一代 Blackwell GPU 來實現 AI 和 HPC 應用。

新軟件 NIM 讓用户更容易利用已有英偉達 GPU 進行 AI 推理

英偉達同時宣佈推出名為英偉達 NIM 的推理微服務,它是優化的雲原生微服務,旨在縮短生成式 AI 模型的上市時間並簡化它們在雲、數據中心和 GPU 加速工作站上的部署。

英偉達 NIM 通過使用行業標準 API 抽象化 AI 模型開發和生產包裝的複雜性來擴展開發人員庫。它是英偉達 AI Enterprise 的一部分,為開發 AI 驅動的企業應用程序和在生產中部署 AI 模型提供了簡化的路徑。

NIM 讓用户使用舊版英偉達 GPU 進行推理或運行 AI 軟件的過程變得更容易,並允許企業客户繼續用他們已有的英偉達 GPU。推理所需的算力比最初訓練新的 AI 模型的少。 NIM 讓企業能運行自己的 AI 模型,而不是從 OpenAI 等公司購買 AI 的成果。

基於英偉達服務器的客户只要訂閲英偉達 AI Enterprise 就可使用 NIM,每個 GPU 每年的許可費用為 4500 美元。

英偉達將與微軟和 Hugging Face 等 AI 公司合作,確保他們的 AI 模型能夠在所有兼容的英偉達芯片上運行。使用 NIM 的開發者可以在自己的服務器或基於雲的 英偉達服務器上高效地運行模型,而無需冗長的配置過程。

評論稱,NIM 這種軟件讓部署 AI 變得更容易,不但為英偉達創收,而且給客户提供了又一個堅持使用英偉達芯片的理由。