
Huang Renxun confidently stated: The data center business is worth 250 billion yuan a year, and NVIDIA will grab the majority of the "cake"

黃仁勳説,他預期數據中心將是一塊非常大的業務。每年全球對數據中心設備投入的費用將共計 2500 億美元,英偉達產品在其中佔據的份額將超過其他芯片生產商。
作者:李丹
來源:硬 AI
在人工智能(AI)領域開發者盛會——英偉達 2024 GTC 期間,英偉達創始人兼 CEO 黃仁勳自信地放出豪言,英偉達會在一年可 “掘金” 幾千億美元的數據中心市場搶到更多的 “蛋糕”。
在美國加州當地時間 19 日週二 GTC 大會期間舉行的投資者活動上,黃仁勳告訴與會者,因為英偉達生產的芯片和軟件種類繁多,所以公司處於有利地位,在全球數據中心設備的支出中,會有一大部分都來自英偉達的產品。
黃仁勳預計,每年全球對數據中心設備投入的費用將共計 2500 億美元,英偉達產品在其中佔據的份額將超過其他芯片生產商。英偉達正致力於開發軟件,以便各行各業採用和使用 AI 技術。英偉達提供 AI 模型和其他軟件,然後根據客户的算力和運行的芯片數量向客户收費。
黃仁勳説,“以我的預期,這(數據中心)將是一塊非常大的業務。”
在今年 GTC 大會揭幕當天,本週一,英偉達剛剛發佈了號稱全球最強大 AI 芯片的 Blackwell 架構 GPU,該架構的首款 GPU B200 將成本和能耗較前代 H100 改善 25 倍,推理能力提升高達 30 倍。它擁有第二代 Transformer 引擎,可提供高達 20 petaflops 的 FP4 算力,浮點運算速度是 H100 4 petaflops 的五倍。
將兩個 B200 GPU 與單個 Grace CPU 結合在一起的超級芯片 GB200,可為 LLM 推理工作負載提供 30 倍的性能,並且顯著提高效率。在擁有 1750 億參數的 GPT-3 大模型基準測試中,GB200 芯片性能是 H100 的 7 倍,訓練速度是 H100 的 4 倍。業內驚呼新的摩爾定律誕生。網上評論稱,Blackwell 標誌着在短短八年內,英偉達 AI 芯片的計算能力實現了提升 1000 倍的歷史性成就。
在週一 GTC 大會上的主題演講中,黃仁勳將 Blackwell 和英偉達專為數據中心設計的上一代芯片架構 Hopper做了對比。他説,如果要訓練一個 1.8 萬億參數 GPT 模型,大約需要三到五個月的時間:
如果用 Hopper(架構)來做,可能需要 8000 個 GPU,並且會消耗 15 兆瓦(電力)。8000 個 GPU 和 15 兆瓦,它會需要 90 天,大約三個月的時間。
如果你用 Blackwell(架構)來做,只需要 2000 個 GPU。2000 個 GPU,同樣的 90 天。但這是驚人的部分,只需要四兆瓦的電力。
黃仁勳透露,包括亞馬遜雲 AWS、谷歌、微軟、甲骨文等,都在為支持 Blackwell 做準備。同時英偉達將持續基於 AI 強化生態,比如英偉達 NOmniverse Cloud 將可以連接到蘋果公司混合頭顯 Vision Pro、加強模型與通用機器人生態等。
黃仁勳還介紹了人形機器人基礎模型 Project GR00T、新款人形機器人計算機 Jetson Thor,還與一對來自迪士尼研究公司的小型英偉達機器人進行互動。
