全球数字财富领导者

英伟达FY2023 Q4业绩电话会分析师问答

2023-02-23 14:48:17
老虎证券
老虎证券
关注
0
0
获赞
粉丝
喜欢 10 0收藏举报
— 分享 —

​​​​​​​​​​​点击收听英伟达FY2023 Q4业绩电话会回放$英伟达(NVDA)$

亚伦雷克斯

显然,在这次电话会议上,一个关键的焦点将是你的软件和云战略的货币化效果。我认为,就像我们看到的那样,我认为,企业人工智能软件套件,我认为,每个CPU插槽的价格在6000美元左右。我认为你对云消费模式的定价标准有点高。科莱特,我只是好奇,我们如何开始考虑未来几个季度对公司商业模式的货币化贡献,相对于过去,你说的是几亿左右?我只是好奇你能不能把它拆开一点。

科莱特克雷斯

因此,我将开始并将其转交给 Jensen 进行更多讨论,因为我相信这将是一个很好的话题,并且在我们的 GTC 上也会进行讨论。

我们在软件方面的计划,我们甚至在第四季度的业绩中也继续看到增长,我们在与合作伙伴合作、加入更多合作伙伴和增加我们的软件方面取得了相当大的进展。你是对的。我们已经谈到我们的软件收入有数亿美元。而且我们每天都变得更加强大,因为就我们的软件水平而言,第四季度可能是创纪录的水平。但就此而言,还有更多内容需要展开,我将把它交给 Jensen。

黄仁勋

是的,首先退一步讲,NVIDIA AI本质上就是今天AI系统的操作系统。它从数据处理开始,到学习、训练、验证、推理。因此,该软件主体得到了完全加速。它在每一片云中运行。它在本地运行。它支持我们所知道的每一个框架、每一个模型,并且它在任何地方都得到了加速。

通过使用 NVIDIA AI,您的整个机器学习操作将更加高效,并且更具成本效益。您可以通过使用加速软件来节省资金。我们今天宣布部署 NVIDIA 的基础架构并由世界领先的云服务提供商托管,这将加速企业利用 NVIDIA AI 企业的能力。它加速了人们对这种机器学习管道的采用,这不适合胆小的人。它是一个非常广泛的软件体系。它并没有广泛部署在企业中,但我们相信,通过在云中托管所有内容,从基础设施到操作系统软件,一直到预训练模型,我们可以加速企业对生成人工智能的采用。所以我们'我们对我们商业模式的这个新的扩展部分感到兴奋。我们真的相信它将加速软件的采用。

维韦克艾莉亚

只是想澄清一下,科莱特,如果你的意思是数据中心也可以在第一季度同比增长?

然后 Jensen,我的主要问题与 2 个相关的小问题有关。生成式 AI 的计算强度,如果非常高,是否会将市场规模限制在少数超大规模用户?在另一个极端,如果市场变得非常大,那么它不会从云 ASIC 或市场上的其他加速器选项中吸引更多对 NVIDIA 的竞争吗?

科莱特克雷斯

谢谢你的问题。首先,谈谈我们为第一季度提供的数据中心指南。我们确实预计我们的数据中心会出现连续增长,强劲的连续增长。我们还预计我们的数据中心会同比增长。实际上,我们预计数据中心的同比增长可能会在第一季度之后加速增长。

黄仁勋

大型语言模型之所以称为大型,是因为它们相当大。但是,请记住,在过去十年中,我们已经将 AI 处理速度提高了 100 万倍。摩尔定律在其最好的日子里,可以在十年内实现 100 倍的增长。通过提出新处理器、新系统、新互连、新框架和算法,并与数据科学家、AI 研究人员合作开发新模型,在整个跨度内,我们已经使大型语言模型处理速度提高了一百万倍,一百万倍快点。

一开始需要几个月的时间,现在只需大约 10 天。当然,您仍然需要大型基础设施。即使是大型基础设施,我们也引入了 Hopper,它具有变压器引擎、新的 NVLink 交换机和新的 InfiniBand 每秒 400 吉比特的数据速率,我们能够在处理大型语言模型方面实现又一次飞跃。

所以我认为——通过使用 NVIDIA DGX 云将 NVIDIA 的 DGX 超级计算机放入云中,我们将使这种基础设施的访问民主化,并通过加速训练能力,真正使这项技术和这种能力变得非常容易获得。所以这是一个想法。

二是需要开发的大型语言模型或基础模型数量相当多。具有不同文化的不同国家及其知识体系是不同的。不同的领域,不同的领域,无论是成像还是生物学还是物理学,每个领域都需要自己的基础模型领域。当然,有了大型语言模型,我们现在有了一个先验,可以用来加速所有这些其他领域的发展,这真的很令人兴奋。

另一件要记住的事情是,世界上有许多公司拥有自己的专有数据。世界上最有价值的数据是专有的。他们属于公司。在他们公司里面。它永远不会离开公司。这些数据也将首次用于训练新的 AI 模型。因此,我们——我们的战略和目标是将 DGX 基础设施放在云端,这样我们就可以为世界上每一个想要创建专有数据等的企业、公司提供这种能力——专有模型。

第二点关于竞争。我们已经竞争很长时间了。如您所知,我们的方法、我们的计算架构在多个方面都大不相同。第一,它是通用的,这意味着你可以将它用于训练,你可以将它用于推理,你可以将它用于所有不同类型的模型。它支持每个框架。它支持每一朵云。它无处不在。它是云到私有云,云到本地。一直到边缘。它可以是一个自治系统。这种架构允许开发人员开发他们的 AI 模型并将其部署到任何地方。

第二个非常大的想法是,没有 AI 本身是一个应用程序。它有一个预处理部分和一个后处理部分,可以将它变成一个应用程序或服务。大多数人不谈论预处理和后处理,因为它可能不那么性感也没有那么有趣。然而,事实证明,预处理和后处理通常会占用总工作量的一半或 2/3。因此,通过加速整个端到端管道,从预处理、数据摄取、数据处理,一直到预处理,一直到后处理,我们能够加速整个管道,而不是只加速一半管道。加速的极限,即使你只加速一半的工作量就立即通过了,速度也是原来的两倍。然而,如果您加速整个工作负载,您可能会将工作负载加速 10 倍、20 倍、50 倍,这就是为什么当您听说 NVIDIA 加速应用程序时,您通常会听到 10 倍、20 倍、50 倍的加速。这样做的原因是因为我们加速了端到端的事情,不仅仅是它的深度学习部分,而是使用 CUDA 来加速从端到端的一切。

因此,我认为我们计算的普遍性——加速计算平台,我们在每个云中的事实,我们从云到边缘的事实,使我们的架构真的很容易访问并且以这种方式非常不同。最重要的是,对于所有服务提供商而言,由于利用率如此之高,因为您可以使用它来加速端到端工作负载并获得如此好的吞吐量,我们的架构是最低的运营成本。它不是 - 比较还差得远。所以 - 无论如何,这是 2 个答案。

克里斯托弗缪斯

我猜,Jensen,你谈到 ChatGPT 是一个有点像 iPhone 的转折点。非常好奇,第一,在 ChatGPT 之后,您与超大规模和大型企业的对话是如何演变的?其次,当您考虑具有变革性引擎的 Hopper 和具有高带宽内存的 Grace 时,您如何看待过去几个月演变的这两个产品周期的增长前景?

黄仁勋

ChatGPT 是一项很棒的工作,团队做得很好,OpenAI 用它做得很好。他们坚持了下来。所有突破的积累导致了一种服务,其内部模型以其多功能性和能力让每个人都感到惊讶。

人们感到惊讶的是,这在我们的行业内是众所周知的。但是单个 AI 模型的惊人能力可以执行从未受过训练的任务和技能。而这个语言模型不只是说英语,或者可以翻译,当然,但不只是说人类语言,它可以用人类语言提示,而是输出Python,输出Cobalt,一种很少有人记得的语言,输出用于 Blender 的 Python,一个 3D 程序。所以这是一个为另一个程序编写程序的程序。

我们现在意识到——世界现在意识到也许人类语言是一种非常好的计算机编程语言,我们已经使计算机编程民主化,适用于每个人,几乎任何可以用人类语言解释要执行的特定任务的人。这台新计算机——当我说到计算的新时代,这个新的计算平台,这台新计算机可以接受任何你的提示,无论你的人类解释的请求是什么,并将其翻译成一系列你可以直接处理的指令,或者它等待您决定是否要处理它。

因此,这种类型的计算机在其应用中是完全革命性的,因为它对这么多人的民主化编程确实让全世界的企业都兴奋不已。每个 CSP,每个互联网服务提供商,坦率地说,他们是每个软件公司,因为我刚才解释过,这是一个可以为任何程序编写程序的 AI 模型。正因为如此,每个开发软件的人要么被提醒,要么被震惊到警觉,或者积极致力于将 ChatGPT 之类的东西集成到他们的应用程序或集成到他们的服务中。因此,正如您可以想象的那样,这完全是全球性的。

在过去的 60 天里,围绕我们构建 Hopper 的 AI 基础设施的活动以及使用 Hopper 和 Ampere 推理大型语言模型的推理活动刚刚火爆起来。因此,毫无疑问,无论我们对今年的看法如何,在我们进入这一年之际,由于过去 60、90 天的原因,已经发生了相当大的变化。

马修拉姆齐

Jensen,我想问几个关于 DGX Cloud 的问题。我想,我们都在谈论服务的驱动程序以及您将使用不同的超大规模器在这些服务之上托管的计算。但我认为我们一直在观察和想知道您的数据中心业务何时可能会过渡到更多的系统级业务,这意味着将 [音频不清晰] InfiniBand 与您的 Hopper 产品、Grace 产品配对并在系统上销售更多东西等级。我想知道您是否可以退后一步,在接下来的 2 或 3 年内,您认为数据中心部门的业务组合如何从销售卡发展到系统和软件?随着时间的推移,这对该业务的利润率意味着什么?

黄仁勋

是的,我很欣赏这个问题。首先,如您所知,我们的数据中心业务仅在概念 GPU 的背景下是 GPU 业务,因为我们实际出售给云服务提供商的是一个面板,一个相当大的 8 Hoppers 或 8 Amperes 计算面板与与 NVLink 相连的 NVLink 交换机相连。因此,该板基本上代表 1 个 GPU。它是 8 个芯片连接在一起成为 1 个 GPU,具有非常高速的芯片到芯片互连。因此,如果您愿意的话,我们一直在研究多芯片计算机已有一段时间了。那是 1 个 GPU。

所以当我们想到 GPU 时,我们实际上会想到 HGX GPU,也就是 8 个 GPU。我们将继续这样做。云服务提供商真正兴奋的是托管我们的基础设施供 NVIDIA 提供,因为我们有很多直接合作的公司。我们直接与全球 10,000 家 AI 初创公司合作,涉及各个行业的企业。今天所有这些关系都非常希望能够至少部署到云中,或者部署到云和本地,通常是多云。

因此,通过让 NVIDIA DGX 和 NVIDIA 的基础设施在他们的云中成为全栈,我们有效地吸引了客户到 CSP。这对他们来说是一个非常非常令人兴奋的模型。他们张开双臂欢迎我们。我们将成为世界云领域最好的 AI 销售人员。对于客户来说,他们现在拥有最先进的即时基础设施。他们有一个团队,从基础架构到加速软件,NVIDIA AI 开放操作系统,一直到 AI 模型都非常出色。在 1 个实体中,他们可以获得整个跨度的专业知识。所以这对客户来说是一个很好的模型。这是 CSP 的一个很好的模型。这对我们来说是一个很好的模型。它让我们真正的奔跑如风。尽管我们将继续并继续推进 DGX AI 超级计算机,但在本地构建 AI 超级计算机确实需要时间。怎么看都难。不管怎么看都需要时间。所以现在我们有能力真正预取其中的很多内容,让客户尽快启动和运行。

蒂莫西·阿库里

Jensen,我想问一下这一切对你的 TAM 有什么影响。现在的大部分重点都放在文本上,但显然,有些公司在视频和音乐方面进行了大量培训。他们在那里研究模型。似乎正在训练这些大型模型的人可能在高端的云中至少有 10,000 个 GPU,他们已经签约,可能还有数万个 GPU 用于推断广泛部署的模型。所以看起来增量 TAM 很容易在几十万个 GPU 中,很容易达到数百亿美元。但我有点想知道这对你去年提供的 TAM 数字有何影响。我想你说的是 3000 亿美元的硬件 TAM 和 3000 亿美元的软件 TAM。那么您如何看待新的 TAM 是什么?

黄仁勋

我认为这些数字仍然是非常好的锚点。不同之处在于,如果你愿意的话,生成人工智能具有令人难以置信的能力和多功能性,以及去年年中和年底发生的所有融合突破,我们可能会早晚到达那个 TAM。毫无疑问,这对计算机行业来说是一个非常重要的时刻。每一个平台的变化,人们开发计算机方式的每一个转折点,都是因为它更容易使用、更容易编程和更容易访问。这发生在 PC 革命中。这发生在互联网革命中。这发生在移动云上。请记住,移动云,由于 iPhone 和 App Store,出现了 500 万个应用程序,并且还在不断增加。没有 500 万个大型机应用程序。没有 500 万个工作站应用程序。没有 500 万个 PC 应用程序。因为开发和部署令人惊叹的应用程序非常容易,一部分是云,一部分是在移动设备上,而且由于应用程序商店的存在,分发也很容易,所以同样的事情现在也发生在人工智能身上。

在没有计算的时代,一个计算平台 ChatGPT 在 60、90 天内达到了 1.5 亿人。我的意思是,这是一件非同寻常的事情。人们正在用它来创造各种各样的东西。所以我认为你现在看到的只是涌现的新公司和新应用程序的洪流。毫无疑问,从各个方面来说,这都是一个新的计算时代。所以我认为——我们解释和表达的 TAM,它在今天确实比以前更容易实现。

斯泰西·拉斯根

澄清一下,你说 H-100 的收入高于 A100。这是一个总体陈述吗?或者是在同一时间点,比如在 2 个季度的出货量之后?

然后是我的实际问题。我想问问汽车,特别是梅赛德斯的机会。梅赛德斯今天举办了一场活动,他们正在谈论他们的 MB Drive 的软件收入,到 20 世纪中期可能达到个位数或低 10 亿欧元,到 20 世纪末达到 10 亿欧元。我知道你们应该将软件收入分成 50-50。你们正在考虑的梅赛德斯交易软件收入的数量级是这种数量级吗?在相似的时间范围内?那是我们应该如何建模的吗?

科莱特克雷斯

首先让我从您提出的关于 H-100 和 A100 的问题开始。我们在第三季度开始首次发货 H-100。这是一个很好的开始。他们中的许多人在很多季度前就开始了这个过程。这是我们在第三季度获得生产水平的时候。因此,第四季度是我们看到 H-100 大幅提升的重要时刻。这意味着我们的 H-100 是我们在第四季度的许多 CSP 的焦点,他们都希望在云实例中启动和运行。因此,我们实际上在第四季度看到的 A100 数量少于我们在 H-100 中看到的数量。我们倾向于继续销售这两种架构,但就在第四季度,这是一个强劲的季度

您对梅赛德斯-奔驰的其他问题。我对我们与他们的共同联系和工作感到非常满意。我们一直在非常努力地准备上市。你是对的。他们确实谈到了软件机会。他们分两个阶段讨论了他们的软件机会,关于他们可以用 Drive 做什么以及他们还可以用 Connect 做什么。他们延长了大约 10 年的时间,着眼于他们在我们面前看到的机会。因此,它与我们与长期合作伙伴的想法一致,并随着时间的推移分享收入。

黄仁勋

Stacy,如果我可以补充的话,其中一件事是关于梅赛德斯正在做的事情的智慧。这是唯一的大型奢侈品牌,从每一辆——从入门级到最高端的豪华车,每一辆都安装了丰富的传感器,每一辆他们配备了人工智能超级计算机,这样梅赛德斯车队中的每辆未来汽车都将成为一个可以升级和永远更新的安装基础,以供未来的客户使用。如果你能想象一下如果今天在路上的整个梅赛德斯车队都是完全可编程的,你可以 OTA,那将代表数千万辆梅赛德斯,这将代表创收机会。这就是 Ola 的愿景。我认为他们正在建造的是什么,这将是非凡的。豪华车的庞大安装基础将继续更新——为了客户的利益,也为了创收利益。

马克·利帕西斯

我认为对你来说,詹森,似乎每年都会出现新的工作负载,并推动对你的流程或生态系统周期的需求。如果我回想面部识别,然后是推荐引擎、自然语言处理、Omniverse 和现在的生成式 AI 引擎,您能与我们分享您的观点吗?这是我们应该期待的未来吗,比如将您的产品需求推向新水平的全新工作负载?

我问的原因是因为我发现你在脚本中的评论很有趣,你提到你对生成人工智能将推动你的产品和服务的需求的看法 - 似乎很多,更好比你过去 90 天的想法还要多。所以 - 就您正在处理的新工作负载或可以推动下一级别需求的新应用程序而言,您是否愿意与我们分享一些您认为可以推动它超越您的需求的东西今天见?

黄仁勋

首先,我有一些您不知道的新应用程序和我们从未分享过的新工作负载,我想在 GTC 上与您分享。这就是我参加 GTC 的诱因,我认为您会对我们将要讨论的应用程序感到非常惊讶和非常高兴。

现在,您不断听到有关新应用程序的消息是有原因的。原因是,第一,NVIDIA 是一个多域加速计算平台。它不像CPU那样完全是通用的,因为CPU是95%,98%是控制函数,只有2%是数学,这使得它完全是灵活的。我们不是那样的。我们是一个加速计算平台,与 CPU 一起工作,可以卸载真正繁重的计算单元,这些单元可能会非常非常瘫痪以卸载它们。但我们是多域的。我们可以做粒子系统。我们可以做流体。我们可以做神经元。我们可以做计算机图形。我们可以做的 。我们可以加速各种不同的应用程序,第一。

第二,我们的客户群非常庞大。这是唯一的加速计算平台,唯一的平台。从字面上看,这是唯一一个在架构上兼容从 PC 到工作站、游戏玩家到汽车再到本地的所有云的架构。每台计算机在架构上都是兼容的,这意味着开发了一些特别的东西的开发人员会寻找我们的平台,因为他们喜欢它的影响力。他们喜欢普遍的影响力。他们喜欢加速,第一。他们喜欢编程工具的生态系统和它的易用性,以及他们可以接触到很多人来帮助他们这一事实。全世界有数以百万计的 CUDA 专家,软件都加速了,工具都加速了。然后非常重要的是,他们喜欢触及范围。他们喜欢你可以看到的事实——他们在开发软件后可以接触到如此多的用户。这就是我们不断吸引新应用程序的原因。

最后,这是非常重要的一点。请记住,CPU 计算进步的速度已经大大放缓。而在我职业生涯的前 30 年里,每 5 年在大约相同的功率下性能提高 10 倍,然后每 5 年提高 10 倍。这种持续前进的速度已经放缓。在这个时代,人们仍然非常非常迫切地想要将他们想要带给世界的应用程序,而随着功率的不断增加,他们负担不起这样做。每个人都需要可持续发展。你不能继续消耗电力。通过加速它,我们可以减少您为任何工作负载使用的电量。因此,所有这些原因确实促使人们使用加速计算,并且我们不断发现新的令人兴奋的应用程序。

阿蒂夫·马利克

科莱特,我有一个关于数据中心的问题。您在 1 月季度看到了建设计划的一些弱点,但您正在指导 4 月和全年的同比加速。因此,如果您可以为我们加速排名的信心。这是基于你的 H-100 斜坡或生成的 AI 销售,还是新的 AI 服务模型?而且,如果你能谈谈你在企业垂直领域看到的情况。

科莱特克雷斯

当我们考虑我们的增长时,是的,我们将在第一季度连续增长,并且预计第一季度也将实现同比增长。它可能会在那里加速前进。那么我们认为这是什么驱动因素呢?是的,我们有多个产品周期进入市场。我们现在有 H-100 上市。我们也将继续推出新产品,有时我们的 GPU 计算和我们的网络会为这些产品提供动力。然后我们可能会在今年下半年取得成绩。此外,生成人工智能在我们的客户中引起了一定的兴趣,无论是 CSP,还是企业,其中之一是初创企业。我们预计这将成为我们今年收入增长的一部分。最后,让我们不要忘记,鉴于摩尔定律的终结,专注于 AI,专注于加速持续是错误的。因此,随着经济的改善,这对企业来说可能非常重要,并且云优先的存在可以为企业提供动力,因为他们 [音频不清晰]。我将把它转给 Jensen,看看他是否有任何其他想要添加的内容。

黄仁勋

不,你做得很好。那很棒。

约瑟夫摩尔

Jensen,你谈到在过去十年中你训练这些模型的能力提高了 100 万倍。您能否让我们深入了解未来几年的情况,以及您的一些使用这些大型语言模型的客户所谈论的复杂性在那种时间范围内增加了 100 倍的程度。我知道 Hopper 的变压器性能提高了 6 倍。但是你能做些什么来扩大规模呢?其中有多少只是反映了未来将有更大的硬件支出?

黄仁勋

首先,我会倒着开始。我相信人工智能基础设施的数量将在全世界增长。原因是人工智能,即智能的生产,将在制造业中进行。曾几何时,人们只生产实物商品。未来,几乎每家公司都会制造软商品。它恰好以智能的形式出现。数据进来了。那个数据中心只做一件事,而且只做一件事。它利用这些数据生成一个新的更新模型。在原材料进来的地方,建筑物或基础设施在其上运转,然后精炼或改进的东西产生了巨大的价值,这就是工厂。所以我希望看到世界各地的 AI 工厂。其中一些将托管在云中。其中一些将在本地进行。会有一些很大,有些会非常大,然后会有一些更小。所以我完全希望这会发生,第一。

第二。在接下来的 10 年里,我希望通过新芯片、新互连、新系统、新操作系统、新分布式计算算法和新 AI 算法,并与开发人员合作开发新模型,我相信我们会将人工智能再加速一百万倍。我们有很多方法可以做到这一点。这就是 NVIDIA 不仅仅是一家芯片公司的原因之一,因为我们试图解决的问题太复杂了。你必须考虑整个堆栈,从芯片一直到通过软件通过网络进入数据中心。在一家公司的头脑中,我们可以考虑整个堆栈。由于这个原因,它确实是计算机科学家的一个很好的游乐场,因为我们可以在整个堆栈中进行创新。所以我的期望是,你将在未来十年的下一家公司、人工智能平台上看到人工智能模型的真正巨大突破。但与此同时,由于其令人难以置信的增长和采用,您将随处看到这些 AI 工厂。

黄仁勋

谢谢。Transformer、大型语言模型和生成式 AI 的突破积累,将 AI 的能力和多功能性提升到了一个显着的水平。一个新的计算平台已经出现。新公司、新应用程序和应对长期挑战的新解决方案正在以惊人的速度诞生。几乎每个行业的企业都在积极应用生成人工智能来重新构想他们的产品和业务。围绕 AI 的活动水平已经很高,现在已经显着加快。这是我们十多年来一直努力的时刻。我们准备好了。我们配备新变压器引擎和 Quantum InfiniBand 结构的 Hopper AI 超级计算机已全面投入生产,CSP 正在竞相开放其 Hopper 云服务。在我们努力满足对 GPU 的强劲需求时,

不要错过即将到来的 GTC。关于新芯片、系统和软件、新 CUDA 应用程序和客户、新生态系统合作伙伴以及 NVIDIA AI 和 Omniverse 的更多信息,我们有很多要告诉您的。这将是我们迄今为止最好的 GTC。到时候那里见。

(这份记录可能不是100%的准确率,并且可能包含拼写错误和其他不准确的。提供此记录,没有任何形式的明示或暗示的保证。表达的记录任何意见并不反映老虎的意见)

1. 欢迎转载,转载时请标明来源为FX168财经。商业性转载需事先获得授权,请发邮件至:media@fx168group.com。
2. 所有内容仅供参考,不代表FX168财经立场。我们提供的交易数据及资讯等不构成投资建议和依据,据此操作风险自负。
go