点击收听英伟达2024Q4业绩电话会回放 $英伟达(NVDA)$
Toshiya Hari
你好,我的问题是问黄仁勋关于数据中心业务的问题。显然,您的业务做得非常好。我很好奇您对日历 '24 和 '25 的期望在过去 90 天里发生了怎样的变化。
当你回答这个问题时,我希望能接触到数据中心内的一些较新的领域,比如软件,主权人工智能,我认为你对于如何思考中长期的问题一直直言不讳。最近,有一篇关于 NVIDIA 可能参与 ASIC 市场的文章。这是否有任何可信度?如果是这样,我们应该如何看待你们在未来几年在这个市场上的表现?谢谢。
黄仁勋
谢谢,让我们来看看你的第一个问题是好吗?
Toshiya Hari
我想了解您对数据中心的期望,以及它们是如何演变的,谢谢。
黄仁勋
好吧,我们一次指导一个季度。但从根本上来说,24 年、25 年及以后持续增长的条件非常好。让我告诉你为什么?我们正处于两个全行业转型的开始阶段,而且这两个转型都是全行业范围的。第一个是从通用计算到加速计算的转变。如您所知,通用计算正开始失去动力。您可以从 CSP 的扩展和许多数据中心(包括我们自己的通用计算中心)中看出,将折旧从四年延长到六年。
当您无法像以前那样从根本上显着提高其吞吐量时,就没有理由更新更多的 CPU。所以你必须加速一切。这是 NVIDIA 一段时间以来一直在开拓的领域。通过加速计算,您可以显着提高能源效率。您可以将数据处理成本大幅降低 20 比 1。这是一个巨大的数字。当然还有速度。这种速度令人难以置信,以至于我们实现了第二次全行业转型,称为生成式人工智能。
生成式人工智能,我相信我们会在电话会议中进行很多讨论。但请记住,生成式人工智能是一种新的应用。它正在启用一种新的软件开发方式,新型软件正在被创建。这是一种新的计算方式。你无法在传统的通用计算上进行生成式人工智能。你必须加速它。
第三,它正在催生一个全新的行业,这是值得退后一步审视的事情,它与你关于主权人工智能的最后一个问题有关。从某种意义上说,这是一个全新的行业,数据中心第一次不仅仅是计算数据和存储数据以及为公司员工提供服务。我们现在有一个关于人工智能生成的新型数据中心,一个人工智能生成工厂。
你已经听过我将其描述为人工智能工厂。但基本上,它需要原材料,即数据,用 NVIDIA 构建的人工智能超级计算机对其进行转换,并将其转化为极其有价值的代币。这些代币是人们在令人惊叹的 ChatGPT 或 Midjourney 上体验到的,或者说,如今的搜索也因此而增强。现在,您所有的推荐系统都受到了随之而来的超个性化的增强。
所有这些令人难以置信的数字生物学初创公司,生产蛋白质和化学品,这样的例子不胜枚举。因此,所有这些令牌都是在非常专业的数据中心中生成的。而这个数据中心我们称之为AI超级计算机和AI生成工厂。但我们看到了多样性——这是其他原因之一——所以根本上就是这个。它在新市场中的体现方式在于您所看到的我们所处的所有多样性。
第一,我们现在所做的推理量是空前的。几乎每次您与 ChatGPT 交互时,我们都会进行推断。每次您使用 Midjourney 时,我们都会进行推理。每次你看到令人惊奇的东西时——这些正在生成的 Sora 视频或 Runway、他们正在编辑的视频、Firefly,NVIDIA 都在进行推理。我们业务的推理部分取得了巨大的增长。我们估计约为 40%。训练量在持续,因为这些模型越来越大,推理量也在增加。
但我们也在向新行业多元化发展。大型 CSP 仍在继续建设。您可以从他们的资本支出和讨论中看到,有一个全新的类别,称为 GPU 专用 CSP。他们专注于 NVIDIA AI 基础设施、GPU 专用 CSP。您会看到企业软件平台部署人工智能。ServiceNow 就是一个非常非常好的例子。你看Adobe。还有其他的,SAP 和其他的。你会看到消费者互联网服务现在正在通过生成人工智能来增强过去的所有服务。因此他们可以创建更多超个性化的内容。
你看到我们正在谈论工业生成人工智能。现在我们的行业代表了价值数十亿美元的企业、汽车、健康、金融服务。总的来说,我们的垂直行业现在价值数十亿美元。当然还有主权人工智能。主权人工智能的原因与每个地区的语言、知识、历史、文化不同并且拥有自己的数据有关。
他们希望使用自己的数据,对其进行训练以创建自己的数字智能,并提供数据以自行利用该原材料。它属于他们,属于世界上的每一个地区。数据属于他们。这些数据对他们的社会最有用。因此他们希望保护数据。他们希望自己将其进行增值转型,转变为人工智能并自己提供这些服务。
因此,我们看到日本、加拿大、法国以及许多其他地区正在建设主权人工智能基础设施。所以我的期望是,美国和西方正在经历的事情肯定会在世界各地复制,这些人工智能生成工厂将遍布每个行业、每个公司、每个地区。所以我认为去年,我们看到生成式人工智能真正成为一个全新的应用空间,一种全新的计算方式,一个全新的行业正在形成,这正在推动我们的增长。
Joe Moore
谢谢,我想追踪 40% 的收入来自推理。这个数字比我预期的要大。您能否让我们了解一下一年前的数字,您从推论中看到法学硕士的增长有多少?你是如何衡量的?我认为在某些情况下,您用于训练和推理的 GPU 是相同的。这个测量有多可靠?谢谢。
黄仁勋
我会向后走。这个数字可能被低估了。让我告诉你原因。当你运行互联网时,新闻、视频、音乐、向你推荐的产品,因为如你所知,互联网有数万亿—我不知道有多少万亿,但外面有数万亿的东西,而你的手机只有 3 英寸见方。因此,他们能够将所有这些信息归结为某个东西,例如一个很小的房地产,是通过一个系统,一个称为推荐系统的令人惊叹的系统。
这些推荐系统过去都是基于CPU方法的。但最近向深度学习和生成式人工智能的迁移确实让这些推荐系统现在直接进入了 GPU 加速的道路。嵌入需要 GPU 加速。最近邻搜索需要 GPU 加速。它需要 GPU 加速来进行重新排名,并且需要 GPU 加速来为您生成增强信息。
所以现在推荐系统的每一个步骤都用到了 GPU。如您所知,推荐系统是地球上最大的软件引擎。世界上几乎每一家大公司都必须运行这些大型推荐系统。每当您使用 ChatGPT 时,都会对其进行推断。每当您听说 Midjourney 以及他们为消费者生成的产品数量时,当您看到 Getty 时,我们与 Getty 和 Adobe 的 Firefly 合作完成的工作。这些都是生成模型。这样的例子还在继续。正如我所提到的,这些都不是一年前存在的,而且是 100% 新的。
Stacy Rasgon
我想谈谈你对下一代产品的期望,我认为这意味着布莱克威尔的供应受到限制。您能深入研究一下吗?其驱动因素是什么?为什么随着霍珀的放松,这一点会受到限制?你预计这种情况会受到限制多久,就像你预计下一代会受到25日历年那样的限制,比如这些限制什么时候开始放松?
黄仁勋
是的。首先是总体而言,我们的供应总体上正在改善。我们的供应链为我们做了令人难以置信的工作,从晶圆、封装、存储器、所有电源调节器,到收发器、网络和电缆,应有尽有。我们提供的组件列表 - 如您所知,人们认为 NVIDIA GPU 就像一块芯片。但 NVIDIA Hopper GPU 有 35,000 个零件。它重 70 磅。我们构建的这些东西确实很复杂。人们称其为人工智能超级计算机是有充分理由的。如果您仔细查看数据中心、系统和布线系统的背面,您会发现令人难以置信。它是世界上迄今为止最密集的复杂网络布线系统。
我们的 InfiniBand 业务同比增长 5 倍。供应链确实为我们提供了出色的支持。总体而言,供应正在改善。我们预计需求将继续强于我们的供应——全年我们将尽力而为。周期时间正在改善,我们将继续尽力而为。然而,正如你所知,每当我们推出新产品时,它就会从零增加到一个非常大的数字。你不可能在一夜之间做到这一点。一切都在加速。它没有进步。
因此,每当我们推出新一代产品时,我们都会加大 H200 的力度。随着我们的发展,我们无法在短期内合理地满足需求。我们正在加强 Spectrum-X。我们在 Spectrum-X 方面做得非常好。这是我们进入以太网世界的全新产品。InfiniBand 是人工智能专用系统的标准。带有 Spectrum-X 的以太网——以太网并不是一个非常好的横向扩展系统。
但通过 Spectrum-X,我们在以太网之上增强了基本的新功能,例如自适应路由、拥塞控制、噪声隔离或流量隔离,以便我们可以针对人工智能优化以太网。因此,InfiniBand 将成为我们的人工智能专用基础设施。Spectrum-X 将是我们的人工智能优化网络,并且正在不断发展,因此我们将——对于所有新产品来说,需求将大于供应。这就是新产品的本质,因此我们会尽快满足需求。但总体而言,总体而言,总体而言,我们的供应量增长得非常好。
Matt Ramsay
我想问一个由两部分组成的问题,这是史黛西刚刚提出的问题,即尽管供应正在改善,但您的需求远远超过了供应。我想问题的两个方面是,我想,首先对于Colette来说,你们如何考虑在客户准备部署和监控方面如何分配产品(如果有任何类型的产品堆积)可能还没有开启?
然后我想问黄仁勋,对于你来说,我真的很想听你谈谈你和你的公司正在将你的产品分配给客户的想法,其中许多客户相互竞争,跨行业到小型初创公司,从医疗保健领域到政府。这是一项非常非常独特的技术,您正在启用,我真的很想听您谈谈您如何看待报价/取消报价公平分配,这不仅是为了您公司的利益,也是为了所有人的利益。
Colette Kress
关于我们如何与客户合作,因为他们正在研究如何构建他们的 GPU 实例和我们的分配流程。与我们合作的人员、与我们合作的客户多年来一直是我们的合作伙伴,因为我们一直在帮助他们在云中设置以及他们在内部设置。
其中许多提供商同时拥有多种产品,以满足最终客户的多种不同需求以及他们内部的需求。当然,他们正在提前工作,考虑他们将需要的那些新集群。我们与他们的讨论不仅继续讨论我们的 Hopper 架构,还帮助他们了解下一波浪潮并引起他们的兴趣并了解他们对所需需求的展望。
因此,就他们将购买什么、仍在建造什么以及最终客户正在使用什么而言,这始终是一个不断变化的过程。但是我们建立的关系以及他们对构建复杂性的理解确实帮助了我们进行分配,也帮助了我们与他们的沟通。
黄仁勋
首先,我们的 CSP 对我们的产品路线图和过渡有非常清晰的了解。我们的 CSP 的透明度让他们对放置哪些产品以及放置地点和时间充满信心。所以他们知道他们的——他们尽我们最大的能力知道时机。他们知道数量,当然也知道分配。我们公平分配。我们公平分配。我们竭尽全力公平分配并避免不必要的分配。
正如您之前提到的,为什么在数据中心还没有准备好时分配一些东西。没有什么比把任何东西放在身边更困难的了。因此,公平分配,避免不必要的分配。我们所做的——您问的有关终端市场的问题,我们拥有一个优秀的生态系统,其中包括 OEM、ODM、CSP,以及非常重要的终端市场。NVIDIA 的真正独特之处在于,我们为客户带来了客户,为合作伙伴、CSP 和 OEM 带来了客户,为他们带来了客户。
生物公司、医疗保健公司、金融服务公司、人工智能开发商、大语言模型开发商、自动驾驶汽车公司、机器人公司。有一大批机器人公司正在兴起。有仓库机器人、手术机器人、人形机器人,各种非常有趣的机器人公司、农业机器人公司。所有这些初创公司、大公司、医疗保健、金融服务和汽车等都在 NVIDIA 的平台上工作。我们直接支持他们。
通常,我们可以通过分配给 CSP 并同时将客户带到 CSP 来实现双重目的。所以这个生态系统是充满活力的,你说得完全正确。但其核心是,我们希望公平分配,避免浪费,并寻找连接合作伙伴和最终用户的机会。我们一直在寻找这些机会。
Timothy Arcuri
多谢。我想问一下你们如何将积压订单转化为收入。显然,你们产品的交货时间已经缩短了很多。Colette,您没有谈论库存采购承诺。但如果我把你的库存加上购买承诺和你的预付供应,即你的供应总量,实际上是下降了一点。我们应该怎样读呢?您只是说您不需要向供应商做出那么多的财务承诺,因为交货时间较短,或者您可能正在达到某种稳定状态,更接近完成订单书和你的积压工作?谢谢。
Colette Kress
是的。因此,让我重点介绍一下我们如何看待供应商的三个不同方面。你是对的。鉴于我们正在进行的分配,我们现有的库存正在努力,当物品进入库存时,立即将它们运送给我们的客户。我认为我们的客户很欣赏我们满足我们所寻求的时间表的能力。
第二部分是我们的购买承诺。我们的采购承诺包含许多不同的组件,这些组件是我们制造所需的组件。而且,我们通常会采购我们可能需要的能力。所需容量的长度或组件的长度都不同。其中一些可能会持续到接下来的两个季度,但有些可能会持续多年。
关于我们的预付费,我也可以这么说。我们的预付款是预先设计的,以确保我们的几个制造供应商拥有我们未来所需的储备能力。因此,当我们增加供应时,不会阅读任何有关大约相同数字的内容。它们只是长度不同,因为我们有时不得不在很长的交货时间内购买东西,或者需要为我们建造产能的东西。
Ben Reitzes
Colette,我想谈谈您对毛利率的评论,毛利率应该回到 70 年代中期。如果你不介意拆开它的话。另外,这是由于新产品中的 HBM 内容造成的吗?您认为该评论的驱动因素是什么?非常感谢。
Colette Kress
是的。谢谢你的提问。我们在开场白中重点强调了我们第四季度的业绩和第一季度的前景。这两个季度都是独一无二的。这两个季度的毛利率是独一无二的,因为它们包括我们的计算和网络以及制造过程的几个不同阶段的供应链中有利的组件成本带来的一些好处。
因此,展望未来,我们可以看到本财年剩余时间的毛利率将达到 70 年代中期,这将使我们回到第四季度和第一季度峰值之前的水平。所以我们实际上只是在考虑我们的组合的平衡。混合始终将是我们今年剩余时间发货的最大推动力。这些实际上只是驱动因素。
C.J. Muse
下午好,黄仁勋,有更大的问题要问你。当您考虑过去十年 GPU 计算数百万倍的改进以及对未来类似改进的期望时,您的客户如何看待他们今天进行的 NVIDIA 投资的长期可用性?今天的训练集群会成为明天的推理集群吗?您如何看待此事的进展?谢谢。
黄仁勋
嘿,CJ。谢谢你的提问。是的,这就是最酷的部分。如果你看看我们能够如此大幅度提高性能的原因,那是因为我们的平台有两个特点。一是它正在加速。第二,它是可编程的。它并不脆。NVIDIA 是唯一一个从一开始,从 CNN、Alex Krizhevsky、Ilya Sutskever 和 Geoff Hinton 首次揭示 AlexNet 开始,一直到 RNN、LSTM、RL 到深度学习的架构。 RL 到变压器到每个版本。
每一个版本和每一个出现的物种,视觉变换器,多模态变换器,每一个——现在是时间序列的东西,每一个变化,每一个出现的人工智能物种,我们已经能够支持它,优化我们的堆栈并将其部署到我们的安装基础中。这确实是最令人惊奇的部分。一方面,我们可以发明新的架构和新技术,比如我们的 Tensor 核心,比如我们的 Tensor 核心的变压器引擎,改进了新的数值格式和处理结构,就像我们对不同代的 Tensor 核心所做的那样,同时,支持同时安装的基础。
因此,我们将所有新的软件算法投资——发明,所有的发明,行业模型的新发明,一方面它在我们的安装基础上运行。另一方面,每当我们看到一些革命性的东西——比如变形金刚,我们就可以创造一些全新的东西,比如霍珀变形金刚引擎,并将其应用到未来。因此,我们同时拥有将软件引入用户群并不断改进的能力,随着时间的推移,我们的新软件不断丰富我们客户的用户群。
另一方面,对于新技术,创造革命性的能力。如果在我们的下一代中,大型语言模型突然实现了惊人的突破,请不要感到惊讶,并且这些突破(其中一些突破将在软件中,因为它们运行 CUDA)将可供安装基础使用。因此,我们一方面带着每个人。另一方面,我们取得了巨大的突破。
Aaron Rakers
我想问一下中国业务。我知道,在您准备好的评论中,您说过您开始向中国运送一些替代解决方案。您还表示,您预计这一贡献将继续占整个数据中心业务的中个位数百分比。所以我想问题是你们今天向中国市场运送的产品有多大,为什么我们不应该期待其他替代解决方案进入市场并扩大你们的广度以再次参与这个机会?
黄仁勋
想一想,从本质上讲,记住美国政府希望将 NVIDIA 加速计算和 AI 的最新能力限制在中国市场。美国政府希望看到我们在中国尽可能取得成功。在这两个限制之内,如果你愿意的话,在这两个支柱之内,就是限制,所以当新的限制出现时,我们不得不暂停。我们立刻停了下来。为了了解限制是什么,我们以软件无法以任何方式破解的方式重新配置了我们的产品。这需要一些时间。所以我们重新调整了我们向中国提供的产品,现在我们正在向中国的客户提供样品。
我们将尽最大努力在该市场中竞争,并在限制范围内取得成功。就是这样。上个季度,当我们在市场上暂停时,我们的业务大幅下降。我们停止在市场上发货。我们预计本季度的情况大致相同。但之后,希望我们能够去竞争我们的业务并尽力而为,我们会看看结果如何。
Harsh Kumar
嘿,黄仁勋、Colette 和 NVIDIA 团队。首先,祝贺您获得了令人惊叹的季度和指南。我想谈谈你们的软件业务,很高兴听到它超过 10 亿美元,但我希望 黄仁勋 或 Colette 能帮助我们了解该软件的不同部分和组成部分商业?换句话说,只需帮助我们稍微解开它,这样我们就可以更好地了解增长的来源。
黄仁勋
让我退后一步,解释一下NVIDIA在软件方面会非常成功的根本原因。首先,如您所知,加速计算确实在云中发展。在云中,云服务提供商拥有非常庞大的工程团队,我们与他们合作的方式允许他们运营和管理自己的业务。每当出现任何问题时,我们都会指派大型团队来处理。他们的工程团队直接与我们的工程团队合作,我们增强、修复、维护、修补加速计算所涉及的复杂软件堆栈。
如您所知,加速计算与通用计算有很大不同。您不是从 C++ 等程序开始。你编译它,然后它就可以在你所有的 CPU 上运行。每个领域所需的软件堆栈,从数据处理 SQL 与 SQL 结构数据与所有非结构化的图像、文本和 PDF,到经典机器学习、计算机视觉、语音到大语言模型,所有这些——推荐系统。所有这些都需要不同的软件堆栈。这就是 NVIDIA 拥有数百个库的原因。如果没有软件,就无法打开新市场。如果您没有软件,则无法打开和启用新应用程序。
软件对于加速计算至关重要。这是大多数人花了很长时间才理解的加速计算和通用计算之间的根本区别。现在,人们明白软件确实是关键。我们与 CSP 合作的方式非常简单。我们有大型团队正在与他们的大型团队合作。
然而,现在生成式人工智能正在使每个企业和每个企业软件公司都能够拥抱加速计算——以及何时——拥抱加速计算现在至关重要,因为它不再可能,也不可能仅仅通过简单的方式来维持吞吐量的提高。通用计算。所有这些企业软件公司和企业公司都没有大型工程团队来维护和优化其软件堆栈以在全球所有云、私有云和本地运行。
因此,我们将对他们的所有软件堆栈进行管理、优化、修补、调整和安装基础优化。我们将它们容器化到我们的堆栈中。我们将其称为 NVIDIA AI Enterprise。我们将 NVIDIA AI Enterprise 推向市场的方式是,将 NVIDIA AI Enterprise 视为一个像操作系统一样的运行时,它是一个人工智能操作系统。
我们对每个 GPU 每年收取 4,500 美元的费用。我的猜测是,世界上每家企业、每家在所有云、私有云和本地部署软件的软件企业公司都将在 NVIDIA AI Enterprise 上运行,尤其是对于我们的 GPU 而言。因此,随着时间的推移,这可能会成为一项非常重要的业务。我们有了一个良好的开端。Colette 提到,它的运行速度已经达到 10 亿美元,而我们实际上才刚刚开始。
谢谢。现在,我将把电话转回给首席执行官黄仁勋,让其致闭幕词。
黄仁勋
计算机行业正在同时进行两个同步平台转变。价值数万亿美元的数据中心安装基础正在从通用计算转向加速计算。每个数据中心都将得到加速,以便世界能够满足计算需求,增加吞吐量,同时管理成本和能源。NVIDIA 实现了令人难以置信的速度——NVIDIA 实现了一种全新的计算范式,即生成式 AI,软件可以学习、理解和生成从人类语言到生物结构和 3D 世界的任何信息。
我们现在正处于一个新行业的开端,人工智能专用数据中心处理大量原始数据,将其提炼为数字智能。与上一次工业革命的交流发电厂一样,NVIDIA AI 超级计算机本质上也是本次工业革命的 AI 发电厂。每个行业的每家公司从根本上都是建立在其专有的商业智能之上,并且在未来,其专有的生成人工智能。
生成式人工智能已经启动了一个全新的投资周期,以建设下一个万亿美元的人工智能生成工厂基础设施。我们相信,这两种趋势将推动全球数据中心基础设施安装基数在未来五年内翻一番,并代表每年数千亿的市场机会。这种新的人工智能基础设施将开辟一个今天不可能实现的全新应用世界。我们与超大规模云提供商和消费者互联网公司一起开启了人工智能之旅。现在,从汽车到医疗保健到金融服务,从工业到电信、媒体和娱乐,每个行业都参与其中。
NVIDIA 的全栈计算平台具有行业特定的应用程序框架以及庞大的开发者和合作伙伴生态系统,为我们提供了帮助每个公司的速度、规模和覆盖范围,帮助每个行业的公司成为人工智能公司。在下个月于圣何塞举行的 GTC 上,我们有很多东西要与您分享。所以一定要加入我们。我们期待向您通报下季度的最新进展。
(这份记录可能不是100%的准确率,并且可能包含拼写错误和其他不准确的。提供此记录,没有任何形式的明示或暗示的保证。表达的记录任何意见并不反映老虎的意见)