数和其他半导体股票。 英伟达首席执行官黄仁勋周三在与分析师的电话会议上不停地谈论人工智能,暗示最近人工智能的繁荣是公司战略的核心。“围绕我们构建的AI基础设施的活动,以及围绕使用Hopper和Ampere影响大型语言模型进行推理的活动,在过去60天里刚刚爆发,毫无疑问,无论我们对今年的看法如何,因为过去60天、90天,在我们进入这一年之际,都发生了相当大的变化。” Ampere是英伟达对A100代芯片的代号。 Hopper是新一代的代号,包括最近开始出货的H100。 更大需要 与其他类型的软件(如网页服务)相比,偶尔会在几微秒内突发性地使用处理能力,而机器学习任务可能会占用整个计算机的处理能力,有时会持续数小时或数天。 这意味着发现自己拥有热门AI产品的公司通常需要购买更多GPU来处理高峰期或改进他们的模型。这些GPU并不便宜。除了可以插入现有服务器的卡上的单个A100之外,许多数据中心还使用一个包含八个A100 GPU协同工作的系统。 该系统是英伟达推出的的DGX A100,售价接近200,000美元,但它配备了所需的芯片。周三,英伟达表示将直接出售对DGX系统的云访问,这可能会降低研究人员的入门成本。 很容易看出A100的成本是如何增加的。例如,New Street Research的一项估计发现,Bing搜索中基于OpenAI的ChatGPT模型可能需要8个GPU才能在不到一秒的时间内响应问题。 按照这个速度,微软将需要超过20,000台8-GPU服务器才能将Bing中的模型部署给每个人,这表明微软的功能可能需要40亿美元的基础设施支出。 “如果你来自微软,并且你想扩大规模,以Bing的规模,那可能是40亿美元。如果你想像谷歌这样每天服务80亿到90亿次查询的规模进行扩展,你实际上需要在DGX上花费800亿美元。” New Street Research技术分析师Antoine Chkaiban表示:“我们得出的数字是巨大的。但它们只是反映了这样一个事实,即每个使用如此大型语言模型的用户在使用时都需要一台大型超级计算机。” 根据Stability AI在线发布的信息,最新版本的图像生成器Stable Diffusion在256个A100 GPU或32台机器上进行了训练,每台机器有8个A100,总计200,000个计算小时。 Stability AI首席执行官Emad Mostaque在Twitter上表示,以市场价格计算,仅训练模型就需要60万美元,并在推特中暗示,与竞争对手相比,这个价格异常便宜。这还不包括“推理”或部署模型的成本。 英伟达首席执行官黄仁勋在接受采访时表示,就这些模型所需的计算量而言,该公司的产品实际上并不昂贵。“我们将原本价值10亿美元的运行CPU的数据中心缩小为1亿美元的数据中心,现在,当你把它放在云端并由100家公司共享时,几乎什么都不是。” 黄仁勋表示,英伟达的GPU允许初创公司以比使用传统计算机处理器低得多的成本训练模型。“现在你可以用大约10到 2000万美元构建类似大型语言模型的东西,比如ChatGPT,这真的非常实惠。” 新的竞争 英伟达并不是唯一一家生产用于人工智能的GPU的公司。AMD和英特尔也拥有图形处理器竞争的能力,还有像谷歌和亚马逊这样的大云公司正在开发和部署专为AI工作负载设计的芯片。 尽管如此,根据AI计算状态报告,“AI硬件仍然强烈地整合到英伟达”。截至12月,超过21,000篇开源AI论文表示他们使用了英伟达芯片。 AI计算中的大多数研究人员使用的是英伟达于2017年推出的芯片V100,但A100在2022年迅速增长,成为第三大使用最多的英伟达芯片,仅次于最初售价1500美元或更低的消费类图形芯片用于游戏。 由于国防原因,A100也是少数几个受到出口管制的芯片之一。去年秋天,英伟达在提交给美国证券交易委员会的一份文件中表示,美国政府实施了一项许可证要求,禁止将A100和H100出口到中国、香港和俄罗斯。 英伟达在其文件中表示,美国政府表示,新的许可要求将解决所涵盖产品可能用于或转移到中国和俄罗斯的军事最终用途。英伟达此前表示,它为中国市场调整了部分芯片,以符合美国出口限制的规定。 A100最激烈的竞争可能是它的继任者。A100于2020年首次推出,2022年推出的 H100 则开始量产。事实上,Nvidia在截至1月份的季度中录得的H100芯片收入高于A100,尽管H100的单价更高。 英伟达表示,H100是其数据中心GPU中第一款针对Transformer架构进行优化的产品,Transformer是许多最新和顶级AI应用程序使用的一项越来越重要的技术。英伟达周三表示,它希望将AI训练速度提高100万以上。这可能意味着,人工智能公司最终将不需要那么多英伟达芯片堆叠。 #ChatGPT火爆全网#lg...