
NVIDIA accelerates its AI ecosystem layout in Europe: expanding the Lepton cloud platform to connect with local developers

英偉達正在加速其在歐洲的 AI 生態佈局,推出 Nvidia DGX Cloud Lepton 的擴展版本,旨在連接當地開發者與全球計算生態系統。該平台通過多家雲服務提供商提供 GPU,支持高性能計算。亞馬遜 AWS 和微軟 Azure 將是首批參與者。此外,英偉達與歐洲風險投資公司合作,為初創企業提供計算資源,以推動區域發展。
智通財經 APP 獲悉,英偉達 (NVDA.US) 表示,其正致力於將歐洲的開發者與其全球計算生態系統相連接。該公司宣佈推出 Nvidia DGX Cloud Lepton 的擴展版本——這是一個集成了全球計算市場功能的 AI 平台,該平台可連接開發人員所構建的面向機構和物理應用的人工智能應用程序。現在,該平台的 GPU 已可通過一系列雲服務提供商網絡獲得。
這家人工智能芯片巨頭表示,Mistral AI、Nebius、Nscale、Firebird、Fluidstack、Hydra Host、Scaleway 和 Together AI 現已將 NVIDIA Blackwell 及其他 NVIDIA 架構的 GPU 推向市場,從而擴大了高性能計算的區域覆蓋範圍。
英偉達指出,亞馬遜 (AMZN.US) 的 AWS 和微軟 (MSFT.US) 的 Azure 將是首批參與 DGX Cloud Lepton 項目的大型雲服務提供商。
英偉達補充道,這些公司與 CoreWeave(CRWV.US)、Crusoe、Firmus、富士康、GMI Cloud、Lambda 以及 Yotta Data Services 一同入駐了該平台。
英偉達還與一些歐洲風險投資公司 (如 Accel、Elaia、Partech 和 Sofinnova Partners) 合作,為投資組合公司提供 DGX Cloud Lepton 平台的信用額度,使初創企業能夠獲得加速計算資源並推動區域發展。
此外,通過與英偉達軟件套件 (包括英偉達 NIM、NeMo 微服務和 Cloud Functions) 的整合,DGX Cloud Lepton 能夠簡化並加速人工智能應用開發和部署的每一個階段,無論規模大小。
英偉達指出,為了使加速計算能夠更廣泛地服務於全球的人工智能領域,Hugging Face 正在推出 “訓練集羣即服務” 這一新服務。該服務與 DGX Cloud Lepton 平台相整合,能夠無縫地將構建基礎模型的 AI 研究人員和開發人員與英偉達的計算生態系統連接起來。
英偉達的創始人兼首席執行官黃仁勳表示:“我們正與該地區的各合作伙伴攜手合作,構建一個人工智能工廠網絡。開發者、研究人員和企業可以利用這個網絡將本地的突破成果轉化為全球性的創新成果。”