全球数字财富领导者

英伟达2025 年第四季度收益电话会议分析师问答

2025-03-03 11:30:14
老虎证券
老虎证券
关注
0
0
获赞
粉丝
喜欢 0 0收藏举报
— 分享 —

点击收看英伟达FY2025Q4业绩电话会议回放 $英伟达(NVDA)$

操作员

谢谢。[操作员指示]。您的第一个问题来自 Cantor Fitzgerald 的 CJ Muse。请继续。

CJ Muse

是的,下午好。谢谢你回答这个问题。我想对我来说,Jensen,随着 Tepcom 的计算和强化学习显示出如此大的前景,我们清楚地看到训练和推理之间的界限越来越模糊——这对潜在推理专用集群的潜在未来意味着什么?你如何看待对 NVIDIA 和你的客户的整体影响?谢谢。

黄仁勋

是的,我很欣赏 CJ 现在有多种扩展定律。有预训练扩展定律,它将继续扩展,因为我们拥有多模态性,我们有来自推理的数据,现在用于进行预训练。然后第二个是训练后扩展定律,使用强化学习人工反馈、强化学习 AI 反馈、强化学习、可验证奖励。训练后使用的计算量实际上高于预训练。这在某种程度上是合理的,因为您可以在使用强化学习时生成大量合成数据或合成生成的 token。AI 模型基本上是生成 token 来训练 AI 模型。这就是训练后。

第三部分,也就是您提到的测试时间计算或推理、长时间思考、推理扩展。它们基本上都是相同的想法。然后您有一个思路,您进行了搜索。生成的 token 数量,所需的推理计算量已经是一开始大型语言模型的一次性示例和一次性能力的 100 倍。而这仅仅是个开始。这只是个开始。下一代模型可以拥有数千倍,甚至希望是极其周到的、基于模拟和基于搜索的模型,其计算量可能是今天的数十万倍、数百万倍,这是我们未来的想法。

那么问题是如何设计这样的架构?有些模型是自回归的。有些模型是基于扩散的。有时你希望你的数据中心具有分解推理。有时它是压缩的。因此很难确定数据中心的最佳配置是什么,这就是 NVIDIA 架构如此受欢迎的原因。我们运行每个模型。我们擅长训练。我们今天的绝大多数计算实际上是推理,而 Blackwell 将所有这些都提升到了一个新的水平。我们在设计 Blackwell 时就考虑到了推理模型。当你看训练时,它的性能要好很多倍。

但真正令人惊奇的是,对于长期思考测试时间扩展,推理 AI 模型的速度提高了数十倍,吞吐量提高了 25 倍。因此,Blackwell 将在各个方面都令人难以置信。当您拥有一个数据中心时,它允许您根据您现在是否进行更多的预训练、现在进行后训练或扩展推理来配置和使用您的数据中心,我们的架构是可互换的,并且易于以所有这些不同的方式使用。因此,事实上,我们看到统一架构的集中度比以往任何时候都高得多。

操作员

您的下一个问题来自摩根大通的乔·摩尔。请继续。

乔·摩尔

早上好,摩根士丹利。我想知道您是否可以在 CES 上谈谈 GB200,您谈到了机架级系统的复杂性以及您面临的挑战。然后,正如您在准备好的发言中所说,我们已经看到了很多普遍的可用性——就这一发展而言,您处于什么位置?在芯片级之上和之上的系统级是否还存在需要考虑的瓶颈?您是否一直保持着对 NVL72 平台的热情?

黄仁勋

嗯,今天我比在 CES 上更兴奋。这是因为自 CES 以来,我们的出货量大幅增加。我们有大约 350 家工厂生产 150 万个零部件,这些零部件用于每个 Blackwell 机架,即 Grace Blackwell 机架。是的,这非常复杂。我们成功且令人难以置信地扩大了 Grace Blackwell 的产能,上个季度实现了约 110 亿美元的收入。我们将不得不继续扩大规模,因为需求量很大,客户急切地想要得到他们的 Blackwell 系统。您可能在网上看到过很多庆祝 Grace Blackwell 系统上线的消息,当然,我们也这样做了。我们自己的工程、设计团队和软件团队安装了相当多的 Grace Blackwell 产品。

CoreWeave 现在已经公开宣布了他们的成功。当然,微软也有开放 AI,而且你开始看到很多 AI 上线。所以我认为你的问题的答案是,我们所做的事情并不容易,但我们做得很好,我们所有的合作伙伴都做得很好。

操作员

您的下一个问题来自美国银行证券的 Vivek Arya。请继续。

感谢您回答我的问题。科莱特,您能否确认一下第一季度的毛利率是否已经触底?然后是 Jensen,我的问题是问您的。您的仪表板上有什么内容让您有信心强劲的需求可以持续到明年?DeepSeek 及其提出的任何创新是否改变了这种观点?谢谢。

科莱特·克雷斯

首先,让我回答关于毛利率的问题的第一部分。在我们的 Blackwell 产能提升期间,我们的毛利率将在 75% 出头。目前,我们正专注于加快生产速度,加快生产速度以确保我们能够尽快向客户提供产品。我们的 Blackwell 已经完全成型。一旦成型——抱歉,一旦我们的 Blackwell 完全成型,我们就可以降低成本并提高毛利率。因此,我们预计今年晚些时候的毛利率可能会达到 75% 左右。

回顾一下 Jensen 所讲的系统及其复杂性,在某些情况下它们是可定制的。它们有多种网络选项。它们有液体冷却和水冷却。所以我们知道未来我们有机会提高这些毛利率。但现在,我们将专注于尽快完成制造并交付给客户。

黄仁勋

Vivek,我们知道几件事,我们对数据中心建设的资本投资额有相当好的了解。我们知道,未来绝大多数软件将基于机器学习。因此,加速计算、生成 AI、推理 AI 将成为您在数据中心中想要的架构类型。

当然,我们拥有来自顶级合作伙伴的预测和计划。我们还知道,仍有许多创新、真正令人兴奋的初创公司涌现,它们为开发人工智能的下一个突破提供了新的机会,无论是代理人工智能、推理人工智能还是物理人工智能。初创公司的数量仍然相当活跃,每家公司都需要相当数量的计算基础设施。

因此我认为——无论是短期信号还是中期信号,短期信号当然是订单和预测之类的东西。中期信号将是与前几年相比的基础设施和资本支出水平。然后长期信号与我们知道的软件从根本上已经从在 CPU 上运行的手工编码转变为在 GPU 和加速计算系统上运行的机器学习和基于 AI 的软件这一事实有关。因此,我们非常清楚这是软件的未来。

然后,也许当你推出它时,另一种思考方式是,我们实际上只利用了消费者人工智能和搜索以及一定数量的消费者生成人工智能、广告、推荐系统,这些都属于软件的早期阶段。下一波浪潮即将到来,企业的代理人工智能、机器人的物理人工智能和主权人工智能,因为不同的地区为自己的生态系统构建人工智能。所以这些都刚刚起步,我们可以看到它们。我们可以看到它们,因为很明显,我们处于这一发展的中心,我们可以看到在所有这些不同的地方发生的伟大活动,这些都会发生。所以短期、中期和长期。

操作员

您的下一个问题来自摩根大通的 Harlan Sur。请继续。

Harlan Sur

下午好。感谢您回答我的问题。您的下一代 Blackwell Ultra 将于今年下半年推出,与团队的年度产品节奏一致。Jensen,鉴于您仍将增加当前一代 Blackwell 解决方案的产量,您能否帮助我们了解 Ultra 的需求动态?您的客户和供应链如何管理这两种产品的同时产量增加?而且——团队是否仍有望在今年下半年推出 Blackwell Ultra?

黄仁勋

是的。Blackwell Ultra 是下半年。如你所知,第一款 Blackwell 出现故障,可能要花几个月的时间。当然,我们已经完全恢复了。团队在恢复方面做得非常出色,我们所有的供应链合作伙伴和许多人都帮助我们以光速恢复。所以现在我们成功地提高了 Blackwell 的产量。

但这不会阻止下一趟列车的推出。下一趟列车将以年度节奏推出,Blackwell Ultra 将配备新的网络、新的内存,当然还有新的处理器,所有这些都将上线。我们一直在与所有合作伙伴和客户合作,规划这一切。他们拥有所有必要的信息,我们将与所有人合作,实现正确的过渡。这一次,Blackwell 和 Blackwell Ultra 之间的系统架构完全相同。从 Hopper 到 Blackwell 的过渡要困难得多,因为我们从 NVLink 8 系统过渡到了基于 NVLink 72 的系统。因此,底盘、系统架构、硬件、电源传输,所有这些都必须改变。这是一个相当具有挑战性的过渡。

但下一个过渡将恰好在 Blackwell Ultra 中完成。我们也已经透露了,并正在与我们所有的合作伙伴密切合作,以完成下一个过渡。下一个过渡叫做 Vera Rubin,我们所有的合作伙伴都在加快过渡速度,为过渡做准备。再说一次,我们将提供一个巨大的进步。所以来到 GTC,我会和你谈谈 Blackwell Ultra、Vera Rubin,然后向你展示我们接下来的产品。真正令人兴奋的新产品,所以来到 GTC 部分。

操作员

您的下一个问题来自瑞银的 Timothy Arcuri。请继续。

非常感谢。Jensen,我们听到了很多关于定制 ASIC 的消息。您能谈谈客户 ASIC 和商家 GPU 之间的平衡吗?我们听说一些异构超级集群同时使用 GPU 和 ASIC?这是客户计划构建的东西吗?或者这些基础设施将保持相当独特。谢谢。

黄仁勋

嗯,我们制造的东西与 ASIC 非常不同,在某些方面,在我们拦截的某些领域完全不同。我们在几个方面都不同。首先,NVIDIA 的架构是通用的,无论您是针对非攻击性模型、基于扩散的模型、基于视觉的模型、多模态模型还是文本模型进行了优化。我们在所有这些方面都很出色。

我们在所有方面都表现出色,因为我们的软件堆栈非常——我们的架构非常合理,我们的软件堆栈生态系统非常丰富,这是我们最激动人心的创新和算法的初始目标。因此,根据定义,我们的通用性远远大于狭隘性。从端到端,从数据处理、训练数据的管理,到数据训练,当然,到后期训练中使用的强化学习,再到具有严格时间扩展的推理,我们都做得很好。所以我们是通用的,是端到端的,而且我们无处不在。因为我们不只在一个云中,我们在每个云中,我们可以在本地。我们可以在机器人中。我们的架构更容易访问,对于任何创办新公司的人来说,这都是一个很好的初始目标。所以我们无处不在。

我要说的第三件事是,我们的节奏非常快。请记住,这些数据中心的规模始终是固定的。它们的规模是固定的,或者说它们的功率是固定的。如果我们每瓦的性能是 2 倍、4 倍或 8 倍,这并不罕见,那么它就会直接转化为收入。因此,如果您拥有一个 100 兆瓦的数据中心,如果该 100 兆瓦或千兆瓦数据中心的性能或吞吐量高出 4 倍或 8 倍,那么该千兆瓦数据中心的收入就会高出 8 倍。

它与过去的数据中心如此不同,是因为人工智能工厂可以通过其生成的代币直接货币化。因此,我们架构的代币吞吐量如此之快,对于所有为了创收和快速获得投资回报而构建这些东西的公司来说,都是非常有价值的。所以我认为第三个原因是性能。最后我想说的是软件堆栈非常困难。构建 ASIC 与我们所做的没什么不同。我们构建一个新的架构。

如今,我们架构之上的生态系统比两年前复杂 10 倍。这是相当明显的,因为世界在架构之上构建的软件数量呈指数级增长,人工智能也在迅速发展。因此,将整个生态系统置于多个芯片之上非常困难。我会说有这四个原因。最后,我要说的是,芯片设计出来并不意味着它就会被部署。你已经一次又一次地看到这一点。有很多芯片被制造出来,但时机成熟时,必须做出一个商业决策,而这个商业决策就是将一个新引擎、一个新的处理器部署到一个规模、功率和质量都有限的人工智能工厂中。

我们的技术不仅更先进、性能更高,软件功能也更强大,而且非常重要的是,我们的部署速度快如闪电。这些对于胆小者来说已经足够了,这一点现在大家都知道了。我们之所以能取得好成绩、取得胜利,有很多不同的原因。

操作员

您的下一个问题来自 Melius Research 的 Ben Reitzes。请继续。

Ben Reitzes

是的,我刚才就问到了这个问题。嘿,非常感谢你的提问。嗨,Jensen,这是一个与地理相关的问题,你很好地解释了一些需求强劲的潜在因素。但美国环比增长了约 50 亿美元左右。我认为,如果对其他地区有监管,美国能否弥补不足是一个问题。我只是想知道,随着我们全年的发展,美国的这种激增是否会继续下去,这是否会没问题。如果这是你们增长率的基础,那么在向美国转移这种组合的情况下,你们如何保持如此快速的增长?你的指导看起来中国可能会环比增长。所以我想知道你是否可以经历这种动态,也许收集可以权衡一下。

黄仁勋

中国的比例与第四季度和前几个季度大致相同。这大约是出口管制之前的一半。但比例大致相同。就地域而言,要点是人工智能是软件。它是现代软件。它是令人难以置信的现代软件,但它是现代软件,人工智能已成为主流。人工智能在各地的送货服务、购物服务中得到应用。如果你要买四分之一,从牛奶送到你手中,人工智能就参与其中。

因此,几乎所有消费者服务的核心都是人工智能。每个学生都会使用人工智能作为导师,医疗保健服务使用人工智能,金融服务也使用人工智能。没有一家金融科技公司不使用人工智能。每家金融科技公司都会。气候技术公司使用人工智能。矿产勘探现在也使用人工智能。每所高等教育机构、每所大学都在使用人工智能,所以我认为可以相当肯定地说,人工智能已经成为主流,它正在被整合到每一个应用程序中。

当然,我们希望技术能够继续安全地发展,并以有益于社会的方式发展。因此,我相信我们正处于这一新转变的开始阶段。我所说的开始阶段是指,请记住,我们已经建立了数十年的数据中心和数十年的计算机。它们是为手工编码、通用计算和 CPU 等世界而构建的。展望未来,我认为可以肯定地说,这个世界几乎所有的软件都将融入人工智能。所有软件和服务都将基于机器学习,数据飞轮将成为改进软件和服务的一部分,未来的计算机将加速发展,未来的计算机将基于人工智能。我们实际上已经踏上这一旅程两年了。我们正在对花了几十年时间打造的计算机进行现代化改造。所以我很确定我们正处于这个新时代的开始阶段。最后,没有任何技术有机会比人工智能解决全球 GDP 更大一部分问题。没有任何软件工具能够做到这一点。

因此,现在这个软件工具可以解决比历史上任何时候都多得多的世界 GDP 问题。因此,我们思考增长的方式以及我们思考某件事是大还是小的方式都必须放在这个背景下。当你退一步从这个角度来看时,我们才刚刚开始。

操作员

您的下一个问题来自 Evercore ISI 的 Mark Lipacis。请继续。

Mark Lipacis

我有一个澄清和问题。Colette 愿意澄清。您是否说过,1 月份数据中心内的企业同比增长了 2 倍?如果是这样,那么这是否会使其增长速度超过超大规模企业?然后,Jensen,对于您来说,问题是,超大规模企业是您解决方案的最大购买者,但他们购买设备用于内部和外部工作负载,外部工作流是企业使用的云服务。所以问题是,您能否让我们了解一下超大规模企业的支出在外部工作负载和内部工作负载之间的分配情况?随着这些新的 AI 工作流和应用程序的出现,您是否希望企业成为该消费组合中更大的一部分?这会影响您开发服务和生态系统的方式吗?

科莱特·克雷斯

当然。感谢您提出有关我们企业业务的问题。是的,它发展到了 X,与我们在大型 CSP 中看到的情况非常相似。请记住,这些都是了解与 CSP 合作和开发大型语言模型的重要领域,您可以在自己的工作中进行推理。但请记住,这也是企业提供服务的地方。您的企业既与您的 CSP 合作,又在自行构建。它们都发展得很好。

黄仁勋

CSP 约占我们业务的一半。正如您所说,CSP 有内部消费和外部消费。我们正在使用——当然,用于内部消费。我们与他们所有人密切合作,以优化他们内部的工作负载,因为他们拥有大量可以利用的 NVIDIA 设备基础设施。事实上,一方面我们可以用于 AI,另一方面可以用于视频处理,像 Spark 这样的数据处理,我们是可互换的。因此,我们基础设施的使用寿命要长得多。如果使用寿命更长,那么 TCO 也会更低。

所以,第二部分是,如果您愿意的话,我们如何看待企业或非 CSP 的增长?答案是,我相信,从长远来看,它的发展要大得多,原因是,如果你看看今天的计算机行业,计算机行业所不服务的东西主要是工业。所以让我举个例子。当我们说企业时,让我们以汽车公司为例,因为他们既制造软件产​​品,也制造硬件产品。因此,在汽车公司的情况下,员工就是我们所说的企业和 Agentic AI 以及软件规划系统和工具,我们在 GTC 上有一些非常令人兴奋的事情要与大家分享,为员工构建 Agentic 系统是为了提高员工的工作效率,设计市场计划来运营他们的公司。这就是 Agentic AI。

另一方面,他们生产的汽车也需要人工智能。他们需要一个人工智能系统来训练汽车,处理整个庞大的车队。今天,路上有 10 亿辆汽车。总有一天,路上会有 10 亿辆汽车,每一辆都将成为机器人汽车,它们都会收集数据,我们将使用人工智能工厂来改进它们。虽然他们今天有一个汽车工厂,但未来他们会有一个汽车工厂和一个人工智能工厂。

汽车内部本身就是一个机器人系统。正如你所看到的,这里面有三台计算机,一台计算机帮助人们,另一台计算机为机器构建人工智能,这些机器当然可以是拖拉机,也可以是割草机。它可能是人类或当今正在开发的机器人。它可能是一栋建筑,也可能是一个仓库。这些物理系统需要一种新型的人工智能,我们称之为物理人工智能。它们不仅能理解单词和语言的含义,还必须理解世界的含义、摩擦和惯性、物体的永久性以及因果关系。所有这些对你我来说都是常识,但人工智能必须去学习这些物理效应。所以我们称之为物理人工智能。

使用 Agentic AI 彻底改变公司内部工作方式的整个过程才刚刚开始。现在是代理 AI 时代的开始,你听到很多人谈论它,我们正在做一些非常棒的事情。然后是物理 AI,然后是机器人系统。所以这 3 台计算机都是全新的。我的感觉是,从长远来看,这将是一个更大的购物中心,这很有道理。世界 GDP 代表着——由重工业或工业以及为这些工业提供服务的公司代表。

操作员

您的下一个问题来自富国银行的 Aaron Rakers。请继续。

Aaron Rakers

感谢您让我回来。詹森,我很好奇,因为我们现在即将迎来霍珀拐点的两周年纪念日,您在 2023 年看到了 GenAI 的普遍变化。当我们考虑您面前的路线图时,您如何从替换周期的角度看待已部署的基础设施?无论是 GB300 还是鲁宾周期,我们开始看到一些更新机会。我只是好奇你是如何看待这一点的。

黄仁勋

我很感激。首先,人们仍在使用 Voltus、Pascal 和 Amperes。原因在于,CUDA 具有极高的可编程性,因此总有一些东西可以使用。Blackwell,目前的主要用例之一是数据处理和数据管理。你发现 AI 模型不太擅长的情况。你将这种情况呈现给视觉语言模型,比如说,它是一辆汽车。你将这种情况呈现给视觉语言模型。

视觉语言模型实际上会根据情况进行观察,说,这就是发生的事情,我在这方面非常擅长。然后,你根据提示做出响应,并提示 AI 模型在整个数据湖中查找其他类似的情况,无论情况如何。然后,你使用 AI 进行域随机化并生成一大堆其他示例。然后,你就可以开始训练瓶子了。因此,你可以使用安培进行数据处理和数据管理和基于机器学习的搜索。然后,你创建训练数据集,然后将其呈现给 Hopper 系统进行训练。因此,这些架构中的每一个都是完全的——它们都与 CUDA 兼容,因此一切都需要。但是,如果你有基础设施,那么你可以将不太密集的工作负载放在过去的安装基础上。我们所有的 [GBU] (ph) 都得到了很好的利用。

操作员

我们还有时间再问一个问题,这个问题来自花旗银行的 Atif Malik。请继续。

Atif Malik

我有一个关于 Colette 毛利率的后续问题。我知道 Blackwell 的收益率有很多变动因素,NVLink 72 和以太网组合。你提到了之前的问题,4 月季度是最低点;但下半年必须每季度增加 200 个基点才能达到你在财年末给出的 70 年代中期范围。我们仍然不太了解关税对更广泛的半导体的影响。那么是什么让你对今年下半年的轨迹有信心呢?

科莱特·克雷斯

是的。谢谢你的提问。我们的毛利率在材料方面相当复杂,我们在 Blackwell 系统中整合的所有东西都有很多机会来研究其中的许多不同部分,以便随着时间的推移更好地提高我们的毛利率。

请记住,我们在 Blackwell 上也有许多不同的配置,可以帮助我们做到这一点。因此,在为客户完成一些真正强大的产能提升后,我们可以一起开始很多工作。如果没有,我们可能会尽快开始。如果我们能在短期内改善它,我们也会这样做。目前,关税还是一个未知数,在我们进一步了解美国政府的计划之前,包括其时间、地点和金额,这都是未知数。所以目前,我们正在等待,但同样,我们当然会一直以这种方式遵守出口管制和/或关税。

操作员

女士们,先生们,我们的问答环节到此结束。抱歉。

黄仁勋

谢谢。

科莱特·克雷斯

我们将向詹森敞开心扉,我相信他有几件事。

黄仁勋

我只是想感谢你。谢谢你,科莱特。对布莱克威尔的需求非常大。人工智能正在从感知和生成人工智能发展到推理。随着人工智能的发展,我们观察到了另一个缩放定律,推理时间或测试时间缩放,更多的计算。模型思考得越多,答案就越聪明。OpenAI、Grok-3、DeepSeek-R1 等模型是应用推理时间缩放的推理模型。推理模型可以消耗 100 倍以上的计算。未来的推理模型可以消耗更多的计算。DeepSeek-R1 点燃了全球爱好者的热情——这是一项出色的创新。但更重要的是,它开源了一个世界级的推理人工智能模型。几乎每个人工智能开发人员都在应用 R1 或思路链和强化学习技术(如 R1)来扩展其模型的性能。

正如我之前提到的,我们现在有三个扩展损失,推动了对人工智能计算的需求。人工智能的传统扩展损失保持不变。基础模型正在通过多模态得到增强,预训练仍在增长。但这已经不够了。我们有两个额外的扩展维度。训练后技能,其中强化学习、微调、模型提炼需要比单独的预训练多几个数量级的计算。推理时间扩展和推理,其中单个查询和需求增加 100 倍的计算。我们目前定义了 Blackwell,一个可以轻松从交易前、训练后和测试时间扩展过渡的单一平台。

Blackwell 的 FP4 变压器引擎和 NVLink 72 扩展结构以及新软件技术使 Blackwell 能够处理推理 AI 模型,速度比 Hopper 快 25 倍。Blackwell 的所有配置都已全面投入生产。每个 Grace Blackwell NVLink 72 机架都是工程奇迹。近 100,000 名工厂操作员在 350 个制造基地生产了 150 万个组件。人工智能正以生命的速度前进。我们正处于推理 AI 和推理时间扩展的开端。但我们才刚刚进入人工智能时代,多模态 AI、企业 AI 主权 AI 和物理 AI 即将到来。我们将在 2025 年实现强劲增长。

展望未来,数据中心将把大部分资本支出用于加速计算和人工智能。数据中心将日益成为人工智能工厂,每家公司要么租用,要么自营。我要感谢大家今天加入我们。几周后我将参加 GTC。我们将讨论 Blackwell Ultra、Rubin 和其他新的计算、网络、推理人工智能、物理人工智能产品。还有一大堆其他产品。谢谢大家。

(这份记录可能不是100%的准确率,并且可能包含拼写错误和其他不准确的。提供此记录,没有任何形式的明示或暗示的保证。表达的记录任何意见并不反映老虎的意见)

1. 欢迎转载,转载时请标明来源为FX168财经。商业性转载需事先获得授权,请发邮件至:media@fx168group.com。
2. 所有内容仅供参考,不代表FX168财经立场。我们提供的交易数据及资讯等不构成投资建议和依据,据此操作风险自负。
go