Old Huang: We are accelerating everything! Full record of NVIDIA's earnings conference call.

長灣資訊
2024.02.22 10:39
portai
I'm PortAI, I can summarize articles.

黃仁勳在今早的財報電話會議上,對英偉達業績、對 AI 革命的最新解讀。

翻译由机器实现,需要更准确的请参阅英文版:

NVIDIA Corporation (NVDA) 2024 年第四季度财报电话会议记录

英伟达(NVDA)2024年第四季度财报电话会议,2024年2月21日美国东部时间下午5:00

公司参与者

西蒙娜·詹科夫斯基 - 副总裁,投资者关系

科莱特·克雷斯 - 执行副总裁兼首席财务官

黄仁勋 - 总裁兼首席执行官

电话会议参与者

东谷俊哉 - 高盛

乔·摩尔 - 摩根士丹利

斯泰西·拉斯贡 - 伯恩斯坦研究

马特·拉姆齐 - TD考恩

蒂莫西·阿库里 - 瑞银

本·雷茨 - 梅里乌斯研究

C.J. 穆斯 - 康托菲茨杰拉德

亚伦·雷克斯 - 富国银行

哈什·库马尔 - 派珀桑德勒

主持人

下午好。我叫罗布,今天将作为您的电话会议主持人。现在,我想欢迎大家参加英伟达第四季度财报电话会议。为了防止背景噪音,所有线路已被静音。在发言人讲话后,将进行问答环节。[主持人指示]

谢谢。西蒙娜·詹科夫斯基,您现在可以开始会议了。

西蒙娜·詹科夫斯基

谢谢。大家下午好,欢迎来到英伟达2024财年第四季度的电话会议。今天与我一起参加电话会议的有英伟达总裁兼首席执行官黄仁勋,以及执行副总裁兼首席财务官科莱特·克雷斯。

我想提醒大家,我们的电话会议正在英伟达投资者关系网站上进行直播。直播将在我们讨论2025财年第一季度财务结果的电话会议之前一直可供回放。今天电话会议的内容是英伟达的财产。未经我们事先书面同意,不得复制或转录。

在此次电话会议中,我们可能会根据当前预期做出前瞻性声明。这些声明受到许多重大风险和不确定性的影响,我们的实际结果可能会有实质性差异。有关可能影响我们未来财务结果和业务的因素的讨论,请参阅今天的财报新闻稿、我们最近的10-K和10-Q表格以及我们可能向证券交易委员会提交的8-K表格报告。

我们的所有声明都是基于目前可用的信息,截至今天,2024年2月21日所做。除非法律要求,否则我们不承担更新任何此类声明的义务。在此次电话会议中,我们将讨论非美国通用会计准则的财务指标。您可以在我们网站上发布的首席财务官评论中找到这些非美国通用会计准则财务指标与美国通用会计准则财务指标的对照。

有了这些,让我把电话交给科莱特。

科莱特·克雷斯

谢谢,西蒙娜。第四季度是又一个创纪录的季度。收入达到221亿美元,环比增长22%,同比增长265%,远高于我们200亿美元的预期。2024财年的收入为609亿美元,同比增长126%。

从数据中心开始。2024财年的数据中心收入为475亿美元,比上一年增长了两倍多。世界已经达到了新计算时代的转折点。价值1万亿美元的数据中心基础设施正在从通用计算迅速过渡到加速计算。

随着摩尔定律放缓,而计算需求继续飙升,公司可能会加速每个可能的工作负载,以推动未来在性能、总拥有成本和能效方面的改进。与此同时,公司已经开始构建下一代现代数据中心,我们称之为AI工厂,专门用于在生成AI时代提炼原始数据并产生有价值的智能。

第四季度,数据中心收入达到184亿美元,创下纪录,环比增长27%,同比增长409%,得益于英伟达Hopper GPU计算平台以及InfiniBand端到端网络。计算收入增长了5倍多,网络收入比去年增长了两倍。我们很高兴Hopper架构产品的供应正在改善。对Hopper的需求仍然非常强劲。我们预计,我们的下一代产品将会供不应求,因为需求远远超过供应。

第四季度数据中心的增长是由生成AI和大型语言模型的训练和推理在广泛的行业、用例和地区驱动的。我们数据中心平台的多功能性和领先性能使得在许多用例中获得高投资回报成为可能,包括AI训练和推理、数据处理和广泛的CUDA加速工作负载。我们估计,在过去的一年中,大约40%的数据中心收入用于AI推理。

构建和部署AI解决方案已经触及几乎每个行业。许多公司跨行业在规模上训练和运营他们的AI模型和服务,企业通过云提供商使用英伟达AI基础设施,包括超大规模、GPU专业和私有云或本地部署。

英伟达的计算堆栈无缝地延伸到云和本地环境,允许客户采用多云或混合云策略。在第四季度,大型云提供商占我们数据中心收入的一半以上,支持内部工作负载和外部公共云客户。

微软最近指出,超过50,000个组织使用GitHub Copilot业务来提高他们开发人员的生产力,这有助于GitHub收入增长加速至同比40%。Copilot for Microsoft 365的采用在前两个月的增长速度超过了之前两个主要的Microsoft 365企业套件版本。

消费者互联网公司一直是AI的早期采用者,是我们最大的客户类别之一。从搜索到电子商务、社交媒体、新闻和视频服务以及娱乐,公司正在使用AI进行基于深度学习的推荐系统。这些AI投资通过提高客户参与度、广告对话和点击率,产生了强劲的回报。

Meta在其最新季度报告中提到,更准确的预测和改善的广告商表现有助于其收入的显著加速。此外,消费者互联网公司正在投资生成AI,以支持内容创作者、广告商和客户,通过自动化工具进行内容和广告创作、在线产品描述和AI购物助手。

企业软件公司正在应用生成AI来帮助客户实现生产力提升。我们已经与一些早期客户合作进行生成AI的训练和推理,他们已经看到了显著的商业成功。

ServiceNow在最新季度的生成AI产品推动了其有史以来最大的年度新合同价值贡献。我们还与许多其他领先的AI和企业软件平台合作,包括Adobe、Databricks、Getty Images、SAP和Snowflake。

大型语言模型的基础领域正在蓬勃发展。Anthropic、Google、Inflection、Microsoft、OpenAI和xAI在生成AI方面持续取得惊人的突破。像Adept、AI21、Character.ai、Cohere、Mistral、Perplexity和Runway这样的令人兴奋的公司正在构建平台,为企业和创作者提供服务。新的初创公司正在创建LLMs,以服务于世界许多地区的特定语言、文化和习俗。

还有其他公司正在创建基础模型,以解决完全不同的行业问题,如Recursion Pharmaceuticals和Generate:Biomedicines用于生物学。这些公司正在通过超大规模或GPU专业云提供商推动对英伟达AI基础设施的需求。就在今天早上,我们宣布我们已经与Google合作,优化其最新的Gemma语言模型的状态,以加速其在云数据中心和PC上的NVIDIA GPU推理性能。

过去一年中最显著的趋势之一是企业在汽车、医疗保健和金融服务等行业垂直领域对AI的显著采用。英伟达提供多个应用框架,帮助公司在垂直领域采用AI,如自动驾驶、药物发现、低延迟机器学习用于欺诈检测或机器人技术,利用我们的全栈加速计算平台。

我们估计,通过云或本地,汽车垂直领域的数据中心收入贡献去年超过了10亿美元。英伟达DRIVE基础设施解决方案包括用于自动驾驶开发的系统和软件,包括数据摄取、创建、标记和AI训练,以及通过仿真进行验证。

几乎80家汽车制造商,包括全球OEM、新能源汽车、卡车、机器人出租车和一级供应商,都在使用英伟达的AI基础设施来训练LLMs和其他AI模型,用于自动驾驶和AI驾驶舱应用。事实上,几乎每家从事AI工作的汽车公司都在与英伟达合作。随着AV算法转向视频变换器,更多的汽车配备了摄像头,我们预计英伟达的汽车数据中心处理需求将显著增长。

在医疗保健领域,数字生物学和生成AI正在帮助重新发明药物发现、手术、医学成像和可穿戴设备。我们在过去十年中在医疗保健领域建立了深厚的领域专业知识,创建了英伟达Clara医疗保健平台和英伟达BioNeMo,这是一个生成AI服务,用于开发、定制和部署AI基础模型,用于计算机辅助药物发现。

BioNeMo拥有越来越多的预训练生物分子AI模型,可以应用于端到端的药物发现过程。我们宣布Recursion将通过BioNeMo提供他们的专有AI模型,供药物发现生态系统使用。在金融服务领域,客户正在使用AI进行越来越多的用例,从交易和风险管理到客户服务和欺诈检测。例如,美国运通使用英伟达AI将欺诈检测准确性提高了6%。

转向我们的数据中心收入地理分布。除了中国以外的所有地区增长都很强劲,我们的数据中心收入在中国显著下降,这是在10月份美国政府实施出口管制法规之后。尽管我们没有从美国政府获得许可证来向中国运送受限制的产品,但我们已经开始向中国市场运送不需要许可证的替代产品。中国在第四季度占我们数据中心收入的中等个位数百分比。我们预计在第一季度将保持在类似的范围内。

在美国和中国以外的地区,主权AI已成为额外的需求驱动因素。世界各地的国家正在投资AI基础设施,以支持建立大型语言模型,使用本国语言、本地数据,并支持本地研究和企业生态系统。从产品角度来看,绝大多数收入是由我们的Hopper架构以及InfiniBand网络驱动的。它们已经成为加速计算和AI基础设施的事实标准。

我们计划在第二季度初次发货H200,需求强劲,因为H200的推理性能几乎是H100的两倍。网络超过了130亿美元的年化收入运行率。我们的端到端网络解决方案定义了现代AI数据中心。我们的Quantum InfiniBand解决方案同比增长了5倍以上。

英伟达Quantum InfiniBand是最高性能AI专用基础设施的标准。我们现在正在进入以太网网络领域,推出了我们的新Spectrum-X端到端产品,专为数据中心的AI优化网络而设计。Spectrum-X引入了新技术,这些技术是为AI而量身定制的。我们的Spectrum交换机、BlueField DPU和软件堆栈中融合的技术,为AI处理提供了比传统以太网高1.6倍的网络性能。

包括戴尔、惠普企业、联想和超微在内的主要原始设备制造商(OEM)正通过其全球销售渠道与我们合作,将我们的人工智能解决方案扩展到全球企业。我们预计本季度将会发货Spectrum-X。我们的软件和服务产品也取得了巨大进展,第四季度的年化收入运营率达到了10亿美元。我们宣布,NVIDIA DGX Cloud将扩大其合作伙伴名单,包括亚马逊的AWS,加入微软Azure、谷歌云和甲骨文云。DGX Cloud用于NVIDIA自己的人工智能研发和定制模型开发,以及NVIDIA开发者。它将CUDA生态系统带给NVIDIA CSP合作伙伴。

好的,接下来谈谈游戏。游戏收入为28.7亿美元,环比持平,同比增长56%,好于我们对假日期间NVIDIA GeForce RTX GPU的坚实消费需求的预期。本财年收入为104.5亿美元,同比增长15%。在CES上,我们宣布了GeForce RTX 40 Super系列家族的GPU。起价599美元,它们提供了令人难以置信的游戏性能和生成式人工智能能力。销售开局良好。

NVIDIA AI Tensor核心和GPU提供高达836 AI tops的性能,非常适合为游戏提供人工智能,创造日常生产力。我们为RTX GPU提供的丰富软件堆栈进一步加速了人工智能。通过我们的DLSS技术,八个像素中有七个可以由人工智能生成,从而使光线追踪速度提高了4倍,并且图像质量更好。而且,使用Tensor RT LLM for Windows,我们的开源库,它加速了最新大型语言模型生成式人工智能的推理性能,使得RTX AI PC上的运行速度提高了5倍。

在CES上,我们还宣布了来自每个主要OEM的新一波RTX 40系列人工智能笔记本电脑。这些笔记本电脑为包括14英寸和轻薄笔记本在内的各种形态因素带来了高性能的游戏和人工智能能力。凭借高达686 tops的人工智能性能,这些下一代人工智能PC的生成式人工智能性能提高了高达60倍,使它们成为最佳性能的人工智能PC平台。在CES上,我们宣布了NVIDIA Avatar Cloud Engine微服务,它允许开发者将最先进的生成式人工智能模型集成到数字化身中。ACE赢得了多个CES 2024年最佳奖项。

NVIDIA拥有一个端到端平台,用于构建和部署RTX PC和工作站的生成式人工智能应用程序。这包括库、SDK、工具和服务,开发者可以将其整合到他们的生成式人工智能工作负载中。NVIDIA正在推动下一波即将到来的PC生成式人工智能应用程序。凭借超过1亿台已安装的RTX PC和超过500个支持人工智能的PC应用程序和游戏,我们正在前进。

接下来谈谈专业可视化。收入为4.63亿美元,环比增长11%,同比增长105%。本财年收入为15.5亿美元,同比增长1%。本季度的环比增长是由于RTX Ada架构GPU的持续增长所推动的。企业正在更新他们的工作站以支持生成式人工智能相关的工作负载,例如数据准备、LLM微调和检索增强生成。

推动需求的关键工业垂直领域包括制造业、汽车和机器人技术。汽车行业也是NVIDIA Omniverse的早期采用者,因为它寻求将工作流程从设计到构建、模拟、操作和体验他们的工厂和汽车数字化。在CES上,我们宣布创意合作伙伴和开发者包括Brickland、WPP和ZeroLight正在构建Omniverse驱动的汽车配置器。像LOTUS这样的领先汽车制造商正在采用这项技术,为购车体验带来新水平的个性化、真实感和互动性。

接下来谈谈汽车。收入为2.81亿美元,环比增长8%,同比下降4%。本财年收入为10.9亿美元,同比增长21%,这是首次突破10亿美元大关,这得益于汽车制造商对NVIDIA DRIVE平台的持续采用。NVIDIA DRIVE Orin是软件定义的自动驾驶车队的首选人工智能汽车计算机。

它的继任者,NVIDIA DRIVE Thor,设计用于视觉变换器,提供更多的人工智能性能,并将一系列智能功能集成到单一的人工智能计算平台中,包括自动驾驶和停车、驾驶员和乘客监控以及人工智能驾驶舱功能,将于明年上市。本季度有几个汽车客户宣布,理想汽车、长城汽车、吉利的高端电动汽车子公司ZEEKR和小米汽车都宣布了基于NVIDIA的新车型。

接下来谈谈其他的损益表。按照公认会计原则计算的毛利率环比扩大至76%,非公认会计原则计算的毛利率为76.7%,得益于强劲的数据中心增长和组合。我们第四季度的毛利率受到了有利的组件成本的影响。环比来看,按照公认会计原则计算的营业费用增长了6%,非公认会计原则计算的营业费用增长了9%,主要反映了计算和基础设施投资的增加以及员工增长。

在第四季度,我们向股东返还了28亿美元,以股票回购和现金红利的形式。在24财年,我们使用了99亿美元的现金用于股东回报,其中包括95亿美元的股票回购。

让我转向第一季度的展望。预计总收入将为240亿美元,正负2%。我们预计数据中心和专业可视化的环比增长,部分抵消了游戏的季节性下降。按照公认会计原则计算的毛利率和非公认会计原则计算的毛利率预计分别为76.3%和77%,正负50个基点。与第四季度类似,第一季度的毛利率受益于有利的组件成本。展望第一季度之后的剩余时间,我们预计毛利率将回归到70%中期的范围。

按照公认会计原则计算的营业费用和非公认会计原则计算的营业费用预计分别为大约35亿美元和25亿美元。预计25财年按照公认会计原则计算的营业费用和非公认会计原则计算的营业费用将以中30%的范围增长,因为我们继续投资于我们面前的巨大机会。

按照公认会计原则计算的其他收入和费用和非公认会计原则计算的其他收入和费用预计将是大约2.5亿美元的收入,不包括来自非关联投资的收益和损失。按照公认会计原则计算的税率和非公认会计原则计算的税率预计为17%,正负1%,不包括任何一次性项目。更多财务细节包括在首席财务官的评论和我们IR网站上可用的其他信息中。

最后,让我强调一些即将到来的财务界活动。我们将参加3月4日在旧金山举行的摩根士丹利科技、媒体和电信会议,以及3月5日在波士顿举行的TD Cowen第44届年度医疗保健会议。当然,请加入我们3月18日在加利福尼亚州圣何塞举行的年度DTC会议,这是五年来首次以面对面的形式举行。DTC将以Jen-Hsun的主题演讲开始,我们将在第二天,3月19日,为财务分析师举办问答环节。

现在,我们将开放电话会议提问。操作员,请开始提问。

问答环节

操作员

[操作员指示] 您的第一个问题来自高盛的Toshiya Hari。您的线路已开通。

Toshiya Hari

嗨。非常感谢您接受提问,并祝贺您取得了非常强劲的业绩。我的问题是针对Jen-Hsun关于数据中心业务的。显然,你们在这个业务上做得非常好。我很好奇你们对24和25年度的预期在过去90天里是如何演变的。

在回答这个问题时,我希望你能谈谈数据中心内一些较新的领域,比如软件。关于主权人工智能,我认为你们已经非常直言不讳地谈论了中长期的看法。最近,有一篇文章提到NVIDIA可能会参与ASIC市场。这是否有根据,如果是的话,我们应该如何看待你们在未来几年在这个市场的角色?谢谢。

黄仁勋

谢谢,Toshiya。让我们看看。有三个问题,再说一次。第一个问题是——你能——好吗?

Toshiya Hari

我猜你对数据中心的期望是如何演变的。谢谢你。

黄仁勋

好的。是的。嗯,我们一次指导一个季度。但从根本上说,条件非常适合持续增长,从24年到25年及以后的财年。我来告诉你为什么?我们正处于两个行业范围内的转型之初,而且这两个都是行业范围内的。

第一个是从通用计算到加速计算的转型。正如你所知,通用计算开始失去动力。你可以通过CSPs延长许多数据中心的折旧期,包括我们自己的通用计算数据中心,从四年延长到六年来看出这一点。

当你不能从根本上和显著地提高其吞吐量时,就没有理由用更多的CPU进行更新。因此,你必须加速一切。这正是NVIDIA一直在开创的。通过加速计算,你可以显著提高能效。你可以将数据处理成本降低20倍。巨大的数字。当然还有速度。这种速度是如此惊人,以至于我们启用了第二个行业范围内的转型,称为生成式AI。

生成式AI,我相信我们在通话中会充分讨论——充分讨论它。但请记住,生成式AI是一种新应用。它正在启用一种新的软件开发方式,正在创造新类型的软件。这是一种新的计算方式。你不能在传统的通用计算上进行生成式AI。你必须加速它。

第三,它正在启用一个全新的行业,这是值得我们退一步来看的东西,它与你关于主权AI的最后一个问题相连。一个全新的行业,因为这是第一次,数据中心不仅仅是关于计算数据、存储数据和服务公司员工。我们现在有了一种新型的数据中心,它是关于AI生成,一个AI生成工厂。

你已经听我将其描述为AI工厂。但基本上,它采用原材料,即数据,通过NVIDIA构建的这些AI超级计算机将其转化,并将其转化为极其有价值的代币。这些代币是人们在ChatGPT或Midjourney上的惊人体验,或者现在的搜索都是由此增强的。你所有的推荐系统现在都由此增强,以及随之而来的超个性化。

所有这些令人难以置信的数字生物学初创公司,生成蛋白质和化学品,等等。因此,所有这些代币都是在一种非常特殊类型的数据中心中生成的。我们称这些数据中心为AI超级计算机和AI生成工厂。但我们正在看到多样性——另一个原因——所以基础是那样。它如何体现为新市场,在你看到我们所在的所有多样性中。

我们所做的推理数量现在简直是天文数字。几乎每次你与ChatGPT互动时,我们都在进行推理。每次你使用Midjourney时,我们都在进行推理。每次你看到令人惊叹的——这些Sora视频正在生成,或者Runway,他们正在编辑的视频,Firefly,NVIDIA正在进行推理。我们业务中的推理部分增长了很多。我们估计增长了大约40%。模型越来越大,推理的数量在增加。

但我们也在向新行业多元化。大型CSPs仍在继续建设。你可以从他们的资本支出和讨论中看出,但还有一个全新的类别叫做GPU专业化CSPs。他们专门从事NVIDIA AI基础设施,GPU专业化CSPs。你看到企业软件平台部署AI。ServiceNow就是一个非常好的例子。你看到Adobe。还有其他的,比如SAP等。你看到消费者互联网服务现在正在用生成式AI增强他们过去的所有服务。这样他们就可以创造出更加超个性化的内容。

你看到我们谈论工业生成式AI。现在我们的行业代表了数十亿美元的业务,汽车、健康、金融服务。总的来说,我们的垂直行业现在是数十亿美元的业务。当然还有主权AI。主权AI的原因与每个地区的语言、知识、历史、文化不同,他们拥有自己的数据有关。

他们希望使用自己的数据,通过训练来创建自己的数字智能,并将其提供给自己来利用这些原材料。它属于他们,世界各地的每一个地区。数据属于他们。数据对他们的社会最有用。因此,他们想要保护数据。他们想要自己进行转换,增值转换,变成AI,并自己提供这些服务。

因此,我们看到在日本、加拿大、法国和许多其他地区正在建设主权AI基础设施。因此,我的期望是,在美国、西方体验到的情况,肯定会在世界各地复制,这些AI生成工厂将出现在每个行业、每家公司、每个地区。因此,我认为过去这一年,我们看到生成式AI真正成为一个全新的应用空间,一种全新的计算方式,一个全新的行业正在形成,这正在推动我们的增长。

操作员

您的下一个问题来自摩根士丹利的Joe Moore。您的线路已开通。

Joe Moore

太好了。谢谢。我想跟进一下来自推理的40%的收入。这个数字比我预期的要大。你能给我们一些感觉,这个数字可能在一年前是多少,你们在推理方面看到了多少增长,特别是在大型语言模型(LLMs)方面?你们是如何测量的?我假设在某些情况下,你们用于训练和推理的是同样的GPU。这个测量有多准确?谢谢。

黄仁勋

我会倒过来说。这个估计可能被低估了。但我们估计了。让我告诉你为什么。一年前,当你运行互联网、新闻、视频、音乐、产品时,推荐给你的推荐系统——正如你所知,互联网上有数以万亿计的东西,而你的手机只有3英寸见方。因此,他们将所有这些信息压缩到如此小产品中的能力,是通过一个称为推荐系统的惊人系统。

这些推荐系统过去都是基于CPU的方法。但最近转向深度学习,现在是生成式AI,真正将这些推荐系统直接带入了GPU加速的路径。它需要GPU加速来进行嵌入。它需要GPU加速进行最近邻搜索。它需要GPU加速进行重新排序,它需要GPU加速为你生成增强信息。

因此,GPU现在是推荐系统的每一个步骤。正如你所知,推荐系统是地球上最大的单一软件引擎。几乎世界上每个主要公司都必须运行这些大型推荐系统。每当你使用ChatGPT时,它正在进行推理。每当你听说Midjourney以及他们为消费者生成的数量时,当你看到Getty,我们与Getty的合作,以及Adobe的Firefly。这些都是生成模型。列表还在继续。正如我提到的,这些一年前都不存在,100%是新的。

操作员

您的下一个问题来自Bernstein Research的Stacy Rasgon。您的线路已开通。

斯泰西·拉斯贡

嗨,各位。感谢你们接受我的提问。我想问科莱特——我想谈谈你之前提到你预计下一代产品——我猜你指的是Blackwell,会受到供应限制。你能否稍微详细解释一下,是什么原因导致的?为什么在霍珀(Hopper)供应放松的情况下,它会受到限制?你预计这种限制会持续多久,比如你预计下一代产品会一直受限制到2025年吗?它们什么时候开始缓解?

黄仁勋

是的。首先,总体而言,我们的供应正在改善。我们的供应链为我们做了难以置信的工作,从晶圆、封装、内存,到所有的电源调节器、收发器、网络和电缆等等。我们出货的组件列表——正如你所知,人们认为NVIDIA GPU就是一个芯片。但NVIDIA霍珀GPU有35,000个部件。它重达70磅。这些东西真的是我们构建的非常复杂的东西。人们称之为AI超级计算机是有充分理由的。如果你曾经看过数据中心的后面,那些系统,那些复杂的布线系统会让人目瞪口呆。这是世界上所见过的最密集、最复杂的网络布线系统。

我们的InfiniBand业务同比增长了5倍。供应链真的在很好地支持我们。所以总体而言,供应正在改善。我们预计需求将继续超过我们的供应——贯穿全年,我们会尽力而为。周期时间正在改善,我们会继续尽力。然而,每当我们有新产品时,正如你所知,它会从零增长到一个非常大的数字。这不是一夜之间就能做到的。一切都在逐步提升,而不是一步到位。

所以每当我们有一代新产品——现在,我们正在推广H200。在短期内,我们不可能合理地满足需求。我们正在推广Spectrum-X。我们在Spectrum-X上做得非常好。这是我们在以太网领域的全新产品。InfiniBand是AI专用系统的标准。以太网加上Spectrum-X——以太网本身并不是一个很好的扩展系统。

但是有了Spectrum-X,我们在以太网之上增加了基本的新功能,如自适应路由、拥塞控制、噪声隔离或流量隔离,这样我们就能优化以太网用于AI。因此,InfiniBand将是我们的AI专用基础设施。Spectrum-X将是我们的AI优化网络,它正在推广中,所以我们会——对于所有新产品,需求都大于供应。这就是新产品的本质,所以我们会尽快工作以满足需求。但总的来说,总体而言,我们的供应正在非常好地增加。

操作员

您的下一个问题来自TD Cowen的Matt Ramsay。您的线路已开通。

马特·拉姆齐

下午好,黄仁勋,科莱特。祝贺你们的成绩。我想问一个两部分的问题,它涉及斯泰西刚才提到的,即你们的需求显著超过你们的供应,即使供应正在改善。我想问的两个方面是,我猜第一个是给科莱特的,比如你们是如何考虑产品分配的,考虑到客户部署的准备情况,以及是否监控是否有任何可能尚未启用的产品积压?

然后我猜黄仁勋,对你来说,我很想听听你和你的公司对产品分配的思考,你们的许多客户彼此竞争,跨行业到小型初创公司,到医疗保健领域再到政府。这是一项非常独特的技术,你们正在启用,我很想听听你谈谈你如何考虑所谓的公平分配,既为了你公司的利益,也为了整个行业的利益。谢谢。

科莱特·克雷斯

让我先从你的问题开始,谢谢,关于我们如何与客户合作,他们在考虑如何构建他们的GPU实例和我们的分配过程。我们合作的客户,我们与他们合作了很多年,我们一直在协助他们,无论是他们在云中设置的内容,还是他们在内部设置的内容。

这些提供商中的许多人同时进行多个产品,以满足他们最终客户的各种不同需求,但也满足他们内部的需求。所以他们当然会提前考虑他们将需要的新集群。我们与他们的讨论不仅仅是关于我们的霍珀架构,而且还帮助他们了解下一波浪潮,并获得他们的兴趣和他们对需求的展望。

所以这总是一个动态过程,关于他们将购买什么,什么仍在建设中,以及什么正在为我们的最终客户使用。但我们建立的关系以及他们对构建复杂性的理解,确实帮助我们进行了分配,并且帮助我们与他们进行了沟通。

黄仁勋

首先,我们的CSP(云服务提供商)对我们的产品路线图和转型有非常清晰的了解。这种透明度给了我们的CSP信心,知道哪些产品何时何地放置。所以他们知道他们的——他们尽我们所能知道的时间。他们知道数量,当然还有分配。我们公平地分配。我们公平地分配。我们尽我们所能公平地分配,并避免不必要的分配。

正如你之前提到的,为什么要分配一些东西,当数据中心还没准备好。没有什么比让任何东西闲置更困难的了。所以,公平地分配,避免不必要的分配。我们在哪里做——你问的关于最终市场的问题,我们与OEM(原始设备制造商)、ODM(原始设计制造商)、CSP和非常重要的最终市场有着优秀的生态系统。NVIDIA真正独特的是,我们把我们的客户,我们的合作伙伴,CSP和OEM带给他们客户。

生物公司、医疗保健公司、金融服务公司、AI开发者、大型语言模型开发者、自动驾驶汽车公司、机器人公司。有一大批新兴的机器人公司。从仓库机器人到外科机器人再到仿人机器人,各种非常有趣的机器人公司,农业机器人公司。所有这些初创公司、大公司、医疗保健、金融服务和汽车等都在NVIDIA的平台上工作。我们直接支持他们。

而且往往,我们可以通过同时分配给CSP并将客户带给CSP来实现双赢。所以这个生态系统,你绝对是对的,它是充满活力的。但在其核心,我们希望公平地分配,避免浪费,并寻找连接合作伙伴和最终用户的机会。我们一直在寻找这些机会。

操作员

您的下一个问题来自UBS的Timothy Arcuri。您的线路已开通。

蒂莫西·阿库里

非常感谢。我想问一下你们是如何将订单积压转化为收入的。显然,你们产品的交货期已经大大缩短了。科莱特,你没有谈论库存购买承诺。但如果我把你们的库存加上购买承诺和你们预付的供应相加,你们的供应总量实际上略有下降。我们应该如何理解这一点?是不是因为你们不需要对供应商做出那么多的财务承诺,因为交货期更短了,还是说你们可能已经达到了某种稳定状态,你们更接近于填满你们的订单簿和积压订单了?谢谢。

科莱特·克雷斯

是的。所以让我强调一下我们如何看待我们供应商的这三个不同领域。你是对的。我们手头的库存,鉴于我们正在进行的分配,我们正在尝试,当东西进入库存时,立即工作将它们运送给我们的客户。我认为我们的客户感激我们能够满足我们寻找的时间表。

第二部分是我们的购买承诺。我们的购买承诺有很多不同的组成部分,我们需要用于制造的组件。但通常,我们也在采购我们可能需要的产能。我们对产能或组件的需求长度都是不同的。有些可能是为了接下来的两个季度,但有些可能是为了多年。

我对我们的预付款也可以说同样的话。我们的预付款是预先设计的,以确保我们在未来几年内在几个制造供应商处保留我们需要的产能。所以不要对大约相同的数字读入任何东西,因为我们正在增加我们的供应。它们都有不同的长度,因为我们有时不得不购买长交货期的东西,或者需要为我们建立产能的东西。

操作员

您的下一个问题来自Melius Research的Ben Reitzes。您的线路已开通。

本·雷茨

是的。谢谢。祝贺你们的成绩。科莱特,我想谈谈你关于毛利率的评论,你说它们应该回到70%中期。如果你不介意解释一下。还有,这是因为新产品中HBM内容的原因吗?你认为是什么驱动了这个评论?非常感谢。

科莱特·克雷斯

是的。谢谢你的问题。我们在开场白中强调了我们的第四季度结果和第一季度的展望。这两个季度在毛利率方面都是独特的,因为它们包括了一些来自供应链中有利的组件成本的好处,这些好处贯穿了我们的计算和网络,以及我们的几个不同的制造过程阶段。

所以展望未来,我们有能见度进入一个中期70%的毛利率,让我们回到这个第四季度和第一季度之前的峰值。所以我们真的在看一个我们的组合平衡。组合始终将是我们全年将运送的最大驱动因素。这些真的只是驱动因素。

操作员

您的下一个问题来自Cantor Fitzgerald的C.J. Muse。您的线路已开通。

C.J. Muse

是的。下午好,感谢你们接受我的问题。黄仁勋,我有一个更大的问题要问你。当你考虑过去十年GPU计算的百万倍改进,以及对未来类似改进的期望时,你的客户如何看待他们今天所做的NVIDIA投资的长期可用性?今天的训练集群会成为明天的推理集群吗?你认为这会如何发展?谢谢。

黄仁勋

嘿,CJ。感谢你的问题。是的,这是真正酷的部分。如果你看看我们为什么能够如此大幅度提升性能,那是因为我们的平台有两个特点。一是它是加速的。二是它是可编程的。它不是脆弱的。NVIDIA是唯一一个从一开始,确切地说是从CNN和Alex Krizhevsky、Ilya Sutskever以及Geoff Hinton首次揭示AlexNet的那一刻起,一直到RNN、LSTM、每一个——RL、深度学习RL、变换器,到每一个单一版本。

每一个版本和随之而来的每一个种类,视觉变换器、多模态变换器,每一个——现在是时间序列的东西,以及每一个变种,每一个随之而来的AI种类,我们都能够支持它,为它优化我们的堆栈,并将其部署到我们的已安装基础上。这真的是惊人的部分。一方面,我们可以发明新的架构和新技术,比如我们的张量核心,比如我们的张量核心变换器引擎,改进新的数值格式和处理结构,就像我们在不同代的张量核心上所做的那样,同时,支持已安装的基础。

因此,结果是,我们将所有的新软件算法投资——发明,所有的新模型发明,它们一方面在我们的已安装基础上运行。另一方面,每当我们看到一些革命性的东西,比如变换器,我们可以创造一些全新的东西,比如Hopper变换器引擎,并将其实现到未来。因此,我们同时拥有将软件带给已安装基础并不断改进的能力,所以我们的客户的已安装基础会随着时间的推移而通过我们的新软件得到丰富。

另一方面,对于新技术,创造革命性的能力。如果在我们未来的一代产品中,突然在大型语言模型上取得了惊人的突破,不要感到惊讶。这些突破中的一些将是软件,因为它们运行CUDA,将被提供给已安装的基础。因此,我们一方面带着大家一起前进。另一方面,我们取得了巨大的突破。

操作员

您的下一个问题来自Wells Fargo的Aaron Rakers。您的线路已开通。

Aaron Rakers

是的。感谢你接受这个问题。我想问一下中国业务。我知道在你准备好的评论中你说你开始向中国运送一些替代解决方案。你还指出,你预计这一贡献将继续占你总数据中心业务的中单位数百分比。所以我想问的是,你今天向中国市场运送的产品范围有多大,为什么我们不应该期待也许其他替代解决方案进入市场,并扩大你们参与那个机会的广度呢?谢谢。

黄仁勋

想想,核心上,记住美国政府希望限制NVIDIA加速计算和AI的最新能力进入中国市场。美国政府希望看到我们在中国尽可能成功。在这两个约束之内,在这两个支柱之内,如果你愿意,是限制,因此我们在新限制出台时不得不暂停。我们立即暂停。这样我们就能理解限制是什么,以一种不会以任何方式被软件黑客攻击的方式重新配置我们的产品。这花了一些时间。因此,我们重置了我们对中国的产品供应,现在我们正在向中国的客户提供样品。

我们将尽力在那个市场竞争并在那个市场取得成功,在——在限制的规格内。所以就是这样。我们——上个季度,我们——我们的业务显著下降,因为我们——因为我们在市场上暂停了。我们停止了在市场上的运输。我们预计这个季度将会是一样的。但之后,希望我们可以去竞争我们的业务,尽我们最大的努力,我们将看看结果如何。

操作员

您的下一个问题来自Piper Sandler的Harsh Kumar。您的线路已开通。

Harsh Kumar

是的。嘿,Jen-Hsun、Colette和NVIDIA团队。首先,祝贺你们取得了惊人的季度和指导。我想谈谈,一点关于你们的软件业务,很高兴听到它已经超过了10亿美元,但我希望Jen-Hsun或Colette能帮我们理解软件业务的不同部分和片段是什么?换句话说,只是帮助我们稍微拆解一下,这样我们就能更好地理解增长来自哪里。

黄仁勋

让我退后一步,解释为什么NVIDIA在软件方面会非常成功的根本原因。首先,正如你所知,加速计算真正在云中成长。在云中,云服务提供商有非常大的工程团队,我们与他们合作,使他们能够操作和管理自己的业务。每当出现任何问题时,我们都有大型团队分配给他们。他们的工程团队直接与我们的工程团队合作,我们增强、修复、维护、修补涉及加速计算的复杂软件堆栈。

正如你所知,加速计算与通用计算非常不同。你不是从像C++这样的程序开始。你编译它,事情就在你所有的CPU上运行。每个领域所需的软件堆栈都是不同的,从数据处理SQL与——SQL结构数据与所有的图像和文本和PDF,这是非结构化的,到经典的机器学习到计算机视觉到语音到大型语言模型,所有——推荐系统。所有这些东西都需要不同的软件堆栈。这就是为什么NVIDIA有数百个库的原因。如果没有软件,你就不能开拓新市场。如果没有软件,你就不能开启和启用新应用。

软件对于加速计算来说是根本必要的。这是加速计算和大多数人花了很长时间才理解的通用计算之间的根本区别。现在,人们明白了软件真的很关键。我们与CSPs的合作方式,那真的很容易。我们有大型团队与他们的大型团队合作。

然而,现在生成性AI使每个企业和每个企业软件公司都能够接受加速计算——当——现在对于加速计算的接受已经是必不可少的,因为通过仅仅通用计算来持续提高吞吐量已经不再可能,不太可能。所有这些企业软件公司和企业公司都没有大型工程团队来维护和优化他们的软件堆栈,以便在全世界的云和私有云以及本地运行。

因此,我们将进行管理、优化、修补、调整、已安装基础的优化,以适应他们所有的软件堆栈。我们将它们容器化到我们的堆栈中。我们称之为NVIDIA AI企业版。我们上市的方式是,将NVIDIA AI企业版视为一个运行时,就像一个操作系统,它是人工智能的操作系统。

我们每年每个GPU收费4500美元。我的猜测是,世界上的每个企业,每个在所有云、私有云和本地部署软件的软件企业公司,都将运行在NVIDIA AI企业版上,特别是显然对于我们的GPU。因此,这可能会随着时间的推移成为一个非常重要的业务。我们开了个好头。Colette提到它已经达到了10亿美元的运行速度,而我们实际上才刚刚开始。

操作员

谢谢。我现在将电话会议交回给首席执行官Jen-Hsun Huang进行结束语。

黄仁勋

计算机行业正在同时进行两次平台转变。价值万亿美元的已安装数据中心基础正在从通用计算转向加速计算。每个数据中心都将被加速,以便世界能够跟上计算需求,同时管理成本和能源。NVIDIA实现的令人难以置信的加速,开启了一个全新的计算范式,生成性AI,其中软件可以学习、理解并生成任何信息,从人类语言到生物学结构和3D世界。

我们现在正处于一个新行业的开始,AI专用数据中心处理大量原始数据,将其精炼成数字智能。就像上一个工业革命的交流电力发电厂一样,NVIDIA AI超级计算机本质上是这次工业革命的AI生成工厂。每个公司和每个行业的基础都是它们的专有商业智能,将来,它们的专有生成性AI。

生成性AI开启了一个全新的投资周期,以建设下一个价值万亿美元的基础设施——AI生成工厂。我们相信这两个趋势将在未来五年内使世界数据中心基础设施的已安装基础翻倍,并将代表数千亿美元的年度市场机会。这种新的AI基础设施将开启今天不可能的全新世界的应用。我们与超大规模云提供商和消费者互联网公司一起开始了AI之旅。现在,从汽车到医疗保健到金融服务到工业到电信、媒体和娱乐,每个行业都在参与其中。

NVIDIA的全栈计算平台,具有行业特定的应用框架和庞大的开发者和合作伙伴生态系统,为我们提供了帮助每个公司——帮助每个行业的公司成为AI公司的速度、规模和覆盖范围。下个月在圣何塞的GTC上,我们有很多东西要与您分享。一定要加入我们。我们期待在下个季度更新您我们的进展。