英伟达(Nvidia)2023Q4业绩电话会议纪要

以下为Nvidia2023年第四季度财报电话会议相关内容,来自于官方材料的翻译,并不保证完全正确,仅供参考学习。

会议时间:美国东部时间2023年2月22日下午4:45

参会高管:科莱特·克雷斯(执行副总裁、首席财务官)、黄仁勋(总裁兼首席执行官)

在本次电话会议中,我们将讨论非公认会计准则财务指标。您可以在我们网站上发布的首席财务官评论中找到这些非 GAAP 财务指标与 GAAP 财务指标的调节表。现在,让我把电话转给科莱特。

科莱特·克雷斯(执行副总裁、首席财务官)

谢谢你,西蒙娜。第四季度营收为 60.5 亿美元,环比增长 2%,同比下降 21%。全年收入为 270 亿美元,与上年持平。从数据中心开始。

收入为 36.2 亿美元,环比下降 6%,同比增长 11%。财年收入为 150 亿美元,增长 41%。超大规模客户收入实现了强劲的环比增长,尽管低于我们的预期,因为一些云服务提供商在年底暂停了重新调整其构建计划。尽管我们普遍认为紧缩政策反映了整体宏观经济的不确定性,但我们认为这是一个时机问题,因为终端市场对 GPU 和人工智能基础设施的需求强劲。

由于对通用 CPU 基础设施的需求疲软,网络业务有所增长,但略低于我们的预期。数据中心总收入环比下降是由中国销售额下降推动的,这在很大程度上符合我们的预期,反映了新冠疫情和其他国内问题。随着云采用率持续增长,我们正在为越来越多快速增长的云服务提供商提供服务,其中包括 Oracle 和 GPU 专业 CSP。随着越来越多的企业客户转向云优先方法,去年来自 CSP 客户的收入增长显著超过了整个数据中心的收入增长。

在过去的四个季度中,CSP 客户约占我们数据中心收入的 40%。我们的新旗舰 H100 中心 GPU 的采用势头强劲。仅在其增长的第二季度,H100 的收入就已经远高于 A100,而 A100 的收入连续下降。这证明了 H100 的卓越性能,它的训练速度比 A100 快 9 倍,而在基于 Transformer 的大型语言模型的推理中,集群速度比 A100 快 30 倍。

H100的Transformer引擎恰逢其时,服务于大型语言模型推理的开发和扩展。人工智能的采用正处于拐点。Open AI 的 ChatGPT 引起了全世界的兴趣,它让人们能够亲身体验 AI 并展示生成式 AI 的可能性。这些新型神经网络模型可以提高各种任务的生产力,无论是生成营销文案等文本、总结等文档、为广告或视频游戏创建图像还是回答客户问题。

生成式人工智能应用程序将帮助几乎每个行业更快地完成更多工作。具有超过 1000 亿个参数的生成大型语言模型是当今世界最先进的神经网络。NVIDIA 的专业知识涵盖人工智能超级计算机、算法、数据处理和培训方法,可以将这些功能带给企业。我们期待为客户提供生成式人工智能机会。

除了与各大超大规模云提供商合作外,我们还与许多消费互联网公司、企业和初创企业合作。这个机会是巨大的,将推动数据中心的强劲增长,并将在今年加速增长。本季度,我们在金融服务行业(我们最大的垂直行业之一)发布了引人注目的公告。我们宣布与德意志银行建立合作伙伴关系,以加速人工智能和机器学习在金融服务中的使用。

我们正在共同开发一系列应用程序,包括虚拟客户服务代理、语音 AI、欺诈检测和银行流程自动化,利用 NVIDIA 的完整计算堆栈(包括本地和云端),包括 NVIDIA AI 企业软件。我们还宣布,NVIDIA 在资产价格发现等应用的关键金融服务行业基准中获得了人工智能推理的领先结果。在网络领域,我们看到对人工智能推动的最新一代 InfiniBand 和 HPC 优化以太网平台的需求不断增长。生成式 AI 基础模型的大小继续以指数速度增长,推动了对高性能网络的需求,以横向扩展多节点加速工作负载。

InfiniBand 提供无与伦比的性能、延迟和网络内计算功能,是高能效云规模、生成式 AI 的明智选择。对于较小规模的部署,NVIDIA 正在引入其完整的加速堆栈专业知识,并将其与世界上最先进的高性能以太网结构集成。在本季度,InfiniBand 引领了我们的增长,在云、企业和超级计算客户需求的推动下,我们的 Quantum-2 40 GB 每秒平台有了一个良好的开端。在以太网方面,随着客户转向更高的速度、下一代采用者和交换机,我们的 40 GB/秒 Spectrum-4 网络平台正在获得动力。

我们仍然专注于扩展我们的软件和服务。我们发布了 NVIDIA AI 企业版 3.0,支持 50 多个 NVIDIA AI 框架和预训练模型以及联络中心、智能虚拟协助、音频转录和网络安全的新工作流程。即将推出的产品包括我们的 NeMo 和 BioNeMo 大语言模型服务,目前客户正在抢先体验这些服务。现在请 Jensen 详细谈谈我们的软件和云业务。

黄仁勋(总裁兼首席执行官)

谢谢,科莱特。技术突破的积累将人工智能带到了拐点。生成式人工智能的多功能性和能力引发了世界各地企业制定和部署人工智能战略的紧迫感。然而,人工智能超级计算机基础设施、模型算法、数据处理和训练技术对大多数人来说仍然是难以逾越的障碍。

今天,我想与大家分享我们的商业模式的新高度,以帮助每个企业客户都能接触到人工智能。我们正在与主要服务提供商——云服务提供商合作,提供 NVIDIA AI 云服务,这些服务由 NVIDIA 直接通过我们的市场合作伙伴网络提供,并托管在全球最大的云中。NVIDIA 人工智能即服务让企业能够轻松访问全球最先进的人工智能平台,同时保持与全球最先进云提供的存储、网络、安全和云服务的紧密联系。客户可以在 AI 超级计算机、加速库软件或预训练的 AI 模型层上使用 NVIDIA AI 云服务

NVIDIA DGX 是一款 AI 超级计算机,也是世界各地正在建设的 AI 工厂的蓝图。人工智能超级计算机的构建既困难又耗时。今天,我们宣布推出 NVIDIA DGX Cloud,这是拥有自己的 DGX AI 超级计算机的最快、最简单的方法,只需打开浏览器即可。NVIDIA DGX Cloud 已通过 Oracle 云基础设施以及 Microsoft Azure、Google GCP 和其他即将推出的产品提供。

在AI平台软件层,客户可以访问NVIDIA AI enterprise来训练和部署大型语言模型或其他AI工作负载。在预训练的生成式人工智能模型层,我们将向想要为其业务构建专有生成式人工智能模型和服务的企业客户提供 NeMo 和 BioNeMo 这两种可定制的人工智能模型。借助我们的新业务模式,客户可以在私有云到任何公有云中使用 NVIDIA 的全面 AI 计算。我们将在即将举行的 GTC 上分享有关 NVIDIA AI 云服务的更多详细信息,因此请务必关注。

现在让我把话题转回科莱特关于游戏的话题。

科莱特·克雷斯:

谢谢,詹森。游戏收入为 18.3 亿美元,环比增长 16%,同比下降 46%。财年收入为 90.7 亿美元,下降 27%。我们基于 Ada Lovelace 架构的 40 系列 GeForce RTX GPU 的强烈反响推动了连续增长。

同比下降反映了渠道库存调整的影响,这在很大程度上已经过去了。大多数地区第四季度的需求强劲,季节性强劲。尽管中国受到了新冠疫情相关干扰的一定影响,但该市场复苏的早期迹象令我们感到鼓舞。游戏玩家对新款 RTX4090、4080、4070 Ti 桌面 GPU 反应热烈,许多零售和在线商店很快就脱销了。

旗舰级RTX 4090在Steam上迅速走红,占据AI架构榜首,反映了游戏玩家对高性能图形的渴望。本月早些时候,基于 Ada 架构的第一阶段游戏笔记本电脑上市,实现了 NVIDIA 在性能和能效方面有史以来最大的一代飞跃。我们首次为 14 英寸纤薄笔记本电脑带来发烧级 GPU 性能,这是一个快速增长的细分市场,之前仅限于基本任务和应用程序。凭借第五代 Max-Q 技术的功效,我们将 90 级 GPU(我们性能最强的型号)引入笔记本电脑,这又是一项创举。

总而言之,RTX 40 系列 GPU 将为超过 170 款游戏和创作笔记本电脑提供支持,为美好的返校季做好准备。现在有超过 400 款游戏和应用程序支持 NVIDIA RTX 技术,以实现实时光线追踪和 AI 驱动的图形。AI 架构采用 DLSS 3,这是我们的第三代 AI 驱动的显卡,可大幅提升性能。在最先进的游戏《赛博朋克 2077》中,最近添加了 DLSS 3,可将 4K 分辨率下的帧速率性能提升三到四倍。

我们的 GeForce Now 云游戏服务在多个维度、用户、游戏和性能方面持续扩展。目前,它在 100 多个国家/地区拥有超过 2500 万会员。上个月,它在新的高性能终极会员级别中启用了 RTX 4080 图形马力。Ultimate 会员可以通过完整光线追踪和 DLSS 3 从云中以每秒 240 帧的速度进行流传输。

就在昨天,我们与微软发布了一项重要声明。我们同意建立为期 10 年的合作伙伴关系,将 Microsoft 的 Xbox PC 游戏系列引入 GeForce Now,其中包括 Minecraft、Halo 和 Flight Simulator 等热门游戏。微软对动视暴雪的收购完成后,它将增加《使命召唤》和《守望先锋》等游戏。转向专业可视化。

收入为 2.26 亿美元,比上一季度增长 13%,比去年同期下降 65%。财年收入为 15.4 亿美元,下降 27%。连续增长是由在汽车和制造业垂直领域具有优势的桌面工作站推动的。同比下降反映了渠道库存调整的影响,我们预计该调整将在上半年结束。

人们对 NVIDIA Omniverse 的兴趣持续升温,迄今为止下载量已近 300,000 次,第三方设计应用程序有 185 个连接器。最新发布的 Omniverse 具有许多功能和增强功能,包括对 4K 的支持、实时路径跟踪、通过大型未标记 3D 数据库进行人工智能驱动搜索的 Omniverse Search,以及适用于 AWS 的 Omniverse 云容器。让我们转向汽车。收入达到创纪录的 2.94 亿美元,同比增长 17%,同比增长 135%。

连续增长主要由人工智能汽车解决方案推动。电动汽车和传统 OEM 客户的新计划的推出有助于推动这一增长。财年收入达 9.03 亿美元,增长 60%。在 CES 上,我们宣布与富士康建立战略合作伙伴关系,共同开发自动化和自动驾驶汽车平台。

此次合作将扩大产量和制造规模,以满足 NVIDIA Drive 平台不断增长的需求。富士康将在其电动汽车中使用 NVIDIA Drive、Hyperion 计算和传感器架构。富士康将成为一家为全球汽车生产基于 NVIDIA Drive Orin 的电子控制单元的一级制造商。本季度我们还达到了一个重要的里程碑。

NVIDIA Drive 操作系统获得了 TUV SUD 的安全认证,TUV SUD 是汽车行业最有经验、最严格的评估机构之一。凭借行业领先的性能和功能安全性,我们的平台满足自动驾驶运输所需的更高标准。转向损益表的其余部分。GAAP 毛利率为 63.3%,非 GAAP 毛利率为 66.1%。

财年GAAP毛利率为 56.9%,非GAAP毛利率为 59.2%。与去年同期相比,第四季度GAAP运营支出增长 21%,非 GAAP 运营支出增长 23%,主要是由于薪酬和数据中心基础设施支出增加。随后,GAAP运营费用持平,非GAAP运营费用下降1%。我们计划在未来几个季度将其保持在这个水平上相对持平。

全年GAAP运营费用增长 50%,非GAAP运营费用增长 31%。我们以股票回购和现金股息的形式向股东返还11.5亿美元。截至第四季度末,截至2023年12月,我们的股票回购授权剩余约70亿美元。让我展望一下24财年第一季度的前景。

我们预计连续增长将由我们的四个主要市场平台推动,其中数据中心和游戏的强劲增长为主导。收入预计为65亿美元,上下浮动2%。GAAP 和非 GAAP 毛利率预计分别为64.1%和66.5%,上下浮动50个基点。GAAP运营费用预计约为25.3亿美元。

非GAAP运营费用预计约为17.8亿美元。GAAP和非GAAP其他收入和支出预计约为5000万美元,不包括非关联资产剥离的损益。GAAP 和非GAAP税率预计为13%,上下浮动1%(不包括任何离散项目)。预计第一季度的资本支出约为3.5亿至 4 亿美元,2024年整个财年的资本支出约为11亿至13亿美元。

更多财务细节包含在 CFO 评论和我们的 IR 网站上提供的其他信息中。最后,让我重点介绍金融界即将发生的事件。我们将参加3月6 日在旧金山举行的摩根士丹利技术会议和3月7日在波士顿举行的考恩医疗保健会议。我们还将以虚拟方式举办 GTC,Jensen 的主题演讲将于3月21日拉开帷幕。

我们定于5月24日星期三召开财报电话会议,讨论24财年第一季度的业绩。现在我们将开放提问。

问题1:Aaron Rakers(富国银行证券分析师)

是的。感谢您提出问题。显然,在这次电话会议上,一个关键焦点将是您的软件和云策略的货币化效果。我认为,当我们审视它时,我认为,企业人工智能软件套件的价格约为每个 CPU 插槽 6,000 美元。

我认为云消费模型的定价指标要高一些。我只是很好奇,科莱特,我们如何开始考虑未来几个季度对公司商业模式的货币化贡献,我想,在过去,你谈到了几亿或所以?只是好奇你是否能稍微解开它。

回答:

科莱特·克雷斯(执行副总裁、首席财务官)

因此,我将首先将其交给 Jensen 进行更多讨论,因为我相信这将是我们 GTC 上的一个很好的话题和讨论。我们在软件方面的计划,即使在第四季度的业绩中,我们也继续看到增长,我们在与合作伙伴合作、吸引更多合作伙伴和增加我们的软件方面都取得了相当好的进展。你是对的。我们已经谈到我们的软件收入达到数亿。

我们每天都在变得更加强大,因为第四季度我们的软件水平可能达到了创纪录的水平。但还有更多东西需要解开,我将把它交给 Jensen。

黄仁勋(总裁兼首席执行官)

是的。首先,退一步来说,NVIDIA AI 本质上是当今 AI 系统的操作系统。它从数据处理开始,到学习、训练、验证、推理。因此,这个软件主体得到了完全加速。

它在每个云中运行。它在本地运行。它支持我们所知道的每个框架、每个模型,并且它在任何地方都得到加速。通过使用 NVIDIA AI,您的整个机器学习操作将更加高效,并且更具成本效益。

通过使用加速软件,您可以节省金钱。我们今天宣布将 NVIDIA 的基础设施置于世界领先的云服务提供商内部进行托管,这将加速企业利用 NVIDIA AI 企业的能力。它加速了人们对这种机器学习管道的采用,这不适合胆小的人。它是一个非常广泛的软件体。

它并未在企业中广泛部署,但我们相信,通过在云中托管一切,从基础设施到操作系统软件,一直到预训练模型,我们可以加速生成式人工智能在企业中的采用。因此,我们对我们业务模式的这一新扩展部分感到兴奋。我们确实相信它将加速软件的采用。

问题2:Vivek Arya(美国银行美林分析师)

谢谢。只是想澄清一下,Colette,您的意思是数据中心在第一季度也能实现同比增长吗?然后是詹森,我的主要问题与两个相关的小问题有关。生成式人工智能的计算强度如果非常高,是否会将市场规模限制为少数超大规模企业?另一方面,如果市场变得非常大,那么它是否会为 NVIDIA 带来来自云 ASIC 或市场上其他加速器选项的更多竞争?

回答:

科莱特·克雷斯

谢谢你的提问。首先,谈谈我们为第一季度提供的数据中心指南。我们确实预计我们的数据中心将出现环比增长,强劲的环比增长。我们还预计我们的数据中心将逐年增长。

我们实际上期待着美好的一年。如果我们的数据中心同比增长可能会在第一季度之后加速。

黄仁勋

大型语言模型之所以称为大型,是因为它们相当大。然而,请记住,在过去十年中,我们已经将人工智能处理速度加快了一百万倍。摩尔定律在其最好的时期可以在十年内实现 100 倍的增长。通过提出新的处理器、新的系统、新的互连、新的框架和算法,并与数据科学家、人工智能研究人员合作开发新模型,在整个跨度上,我们已经使大型语言模型的处理速度快了一百万倍,一百万倍。快几倍。

一开始需要几个月的时间,现在只需大约 10 天即可完成。当然,您仍然需要大型基础设施。即使是大型基础设施,我们也引入了 Hopper,凭借其变压器引擎、新的 NVLink 交换机和新的 InfiniBand 400 GB/秒数据速率,我们能够在大型语言模型的处理方面取得另一飞跃。因此,我认为,通过使用 NVIDIA DGX 云将 NVIDIA 的 DGX 超级计算机放入云中,我们将实现该基础设施的访问民主化,并通过加速训练功能,真正使该技术和该功能变得易于使用。

这就是一个想法。第二是需要开发的大型语言模型或基础模型数量相当大。不同的国家有着不同的文化和知识体系。不同的领域,不同的领域,无论是成像、生物学还是物理学,每个领域都需要自己的基础模型领域。

当然,有了大型语言模型,我们现在有了一个可以用来加速所有其他领域发展的先验,这确实非常令人兴奋。另一件要记住的事情是,世界上有很多公司拥有自己的专有数据。世界上最有价值的数据是专有的。而且他们属于公司。

就在他们公司内部。它永远不会离开公司。这些数据也将首次用于训练新的人工智能模型。因此,我们的战略和目标是将 DGX 基础设施置于云中,以便我们可以向世界上每一个想要创建专有数据等专有模型的企业、每家公司提供此功能。

第二件事是关于竞争。我们已经竞争很长时间了。如您所知,我们的方法、我们的计算架构在多个方面都有很大不同。第一,它是通用的,这意味着你可以用它进行训练,你可以用它进行推理,你可以将它用于所有不同类型的模型。

它支持每个框架。它支持每种云。它无处不在。它是云到私有云、云到本地。

它一直到边缘。它可能是一个自治系统。这一架构允许开发人员开发他们的人工智能模型并将其部署到任何地方。第二个非常重要的想法是,人工智能本身并不是一个应用程序。

它有一个预处理部分和一个后处理部分,以将其转变为应用程序或服务。大多数人不会谈论预处理和后处理,因为它可能不那么性感,也不那么有趣。然而,事实证明,预处理和后处理通常消耗总体工作量的一半或三分之二。因此,通过加速整个端到端管道,从预处理、数据摄取、数据处理,一直到预处理,一直到后处理,我们能够加速整个管道,而不仅仅是加速一半管道。

即使您只加速一半的工作负载,您就会立即超越加速的限制,但速度是两倍。然而,如果您加速整个工作负载,则可以将工作负载加速 10 倍、20 倍、50 倍,这就是为什么当您听到 NVIDIA 加速应用程序时,您通常会听到 10 倍、20 倍、50 倍加速的原因。原因是我们端到端地加速事物,不仅仅是其中的深度学习部分,而是使用 CUDA 来加速端到端的一切。因此,我认为我们的计算的通用性——加速计算平台,我们存在于每个云中,我们从云到边缘的事实,使我们的架构确实非常容易访问,并且以这种方式非常与众不同。

而且最重要的是,对于所有的服务提供商来说,因为利用率这么高,因为你可以用它来加速端到端的工作负载并获得这么好的吞吐量,我们的架构是运营成本最低的。事实并非如此——这种比较根本不接近。所以——是的,这就是两个答案。

问题3:CJ Muse( Evercore ISI分析师)

是的。下午好。感谢您提出问题。我猜,Jensen,您将 ChatGPT 视为一个拐点,就像 iPhone 一样

非常好奇,A 部分,在 ChatGPT 后,您与超大规模和大型企业的对话如何演变?其次,当您想到具有变革性引擎的 Hopper 和具有高带宽内存的 Grace 时,您对过去几个月这两个产品周期的增长前景有何看法?非常感谢。

回答:

黄仁勋

ChatGPT是一项出色的工作,团队做得很好,OpenAI也做得很好。他们坚持了下来。所有突破的积累带来了一种内部模型的服务,其多功能性和功能让每个人都感到惊讶。人们感到惊讶的是,这在我们的行业内是众所周知的。

但单个人工智能模型的惊人能力可以执行从未接受过训练的任务和技能。而且这个语言模型不只是说英语,或者可以翻译,当然,但是不只是说人类语言,它可以用人类语言提示,而是输出Python,输出Cobalt,一种连人都很少记得的语言,输出Python for Blender,一个 3D 程序。所以它是一个为另一个程序编写一个程序的程序。我们现在意识到,世界现在意识到,也许人类语言是一种完美的计算机编程语言,并且我们已经为每个人,几乎任何可以用人类语言解释要执行的特定任务的人,实现了计算机编程的民主化。

这台新计算机——当我说计算的新时代,这个新的计算平台,这个新的计算机可以接受任何你的提示,无论你的人工解释的请求是什么,并将其翻译成一系列你可以直接处理的指令,或者它等待您决定是否要处理它。因此,这种类型的计算机在其应用方面是完全革命性的,因为它对这么多人的民主化编程确实让全世界的企业兴奋不已。每一个 CSP、每一个互联网服务提供商,坦率地说,他们是每一个软件公司,因为我刚才解释过,这是一个可以为任何程序编写程序的 AI 模型。出于这个原因,每个开发软件的人要么感到警惕,要么震惊地警觉,或者积极致力于将诸如 ChatGPT 之类的东西集成到他们的应用程序或服务中。

所以,正如你可以想象的那样,这完全是全球性的。围绕我们构建 Hopper的人工智能基础设施的活动,以及围绕使用Hopper和 Ampere 推理大型语言模型的推理活动,在过去 60 天内刚刚达到顶峰。因此,毫无疑问,无论我们对今年的看法如何,在我们进入新的一年之际,由于过去的 60、90 天,我们已经发生了相当大的变化。

问题4:马特·拉姆齐(Matt Ramsay) (考恩公司分析师)

非常感谢。下午好。Jensen,我想问几个关于 DGX 云的问题。我想,我们都在谈论服务的驱动程序以及您将在这些服务之上使用不同的超大规模进行托管的计算。

但我认为我们一直在关注并想知道您的数据中心业务何时可能会更多地转变为系统级业务,这意味着将 D-Link InfiniBand 与您的 Hopper 产品、Grace 产品配对,并在系统级别。我想知道您是否可以退后一步,在接下来的两三年内,您认为您的数据中心部门的业务组合如何从销售卡发展到系统和软件?随着时间的推移,这对该业务的利润意味着什么?谢谢。

回答:

黄仁勋

是的。我很欣赏这个问题。首先,如你所知,我们的数据中心业务只是概念性GPU背景下的GPU业务,因为我们实际上卖给云服务提供商的是一个面板,一个相当大的计算面板,由八个Hoppers或八个安培组成,与 NVLink 交换机连接,交换机与 NVLink 连接。因此,该板本质上代表一个 GPU

它由八个芯片连接在一起形成一个 GPU,并具有非常高速的芯片间互连。因此,如果你愿意的话,我们已经研究多芯片计算机相当长一段时间了。那是一个 GPU。因此,当我们考虑 GPU 时,我们实际上想到的是 HGX GPU,即 8 个 GPU。

我们将继续这样做。云服务提供商真正感兴趣的是托管我们的基础设施由NVIDIA提供,因为我们有很多直接合作的公司。我们与全球 10,000 家人工智能初创企业直接合作,涉及各个行业的企业。如今,所有这些关系都非常希望能够至少部署到云中,或者部署到云和本地,通常是多云。

因此,通过在云中拥有 NVIDIA DGX 和 NVIDIA 基础设施的完整堆栈,我们可以有效地吸引客户使用 CSP。这对他们来说是一个非常非常令人兴奋的模式。他们张开双臂欢迎我们。我们将成为世界云领域最好的人工智能销售人员。

对于客户来说,他们现在拥有最先进的即时基础设施。他们拥有一支从基础设施到加速软件、NVIDIA AI开放操作系统,一直到AI模型都非常优秀的团队。在一个实体内,他们可以获得整个范围内的专业知识。因此,这对客户来说是一个很好的模型。

对于 CSP 来说,这是一个很好的模型。这对我们来说是一个很好的模型。它让我们真正像风一样奔跑。尽管我们将继续推进 DGX AI 超级计算机,但在本地构建 AI 超级计算机确实需要时间。

无论怎么看都很难。无论你怎么看,这都需要时间。因此,现在我们有能力真正预取大量数据,并让客户尽快启动并运行。

问题5:蒂莫西·阿库里(瑞银分析师)

多谢。Jensen,我有一个问题,这对您的TAM有何影响。目前大部分焦点都集中在文本上,但显然,有些公司在视频和音乐方面进行了大量培训。他们正在那里研究模型。

在高端,训练这些大型模型的人似乎在云中至少拥有10,000个GPU,甚至可能还有数万个GPU,用于推断广泛部署的模型。因此,增量TAM似乎很容易达到数十万个GPU,并且很容易达到数百亿美元。但我有点想知道这对您去年提供的TAM数据有何影响。我想你说的是3000亿美元的硬件TAM和 3000亿美元的软件TAM。

那么您如何看待新的 TAM 会是什么?谢谢。

回答:

黄仁勋

我认为这些数字仍然是很好的锚。差异是因为,如果你愿意的话,生成式人工智能令人难以置信的能力和多功能性,以及去年年中和年底发生的所有融合突破,我们可能迟早会到达TAM。毫无疑问,这对于计算机行业来说是一个非常重要的时刻。每一个平台的变化、人们开发计算机方式的每一个转折点的发生都是因为它更容易使用、更容易编程和更容易访问。

这发生在个人电脑革命中。这随着互联网革命而发生。移动云就发生过这种情况。请记住,移动云,由于 iPhone 和 App Store,出现了 500 万个应用程序,并且还在不断增加。

大型机应用程序还不到 500 万个。工作站应用程序还不到 500 万个。PC 应用程序还不到 500 万个。由于开发和部署令人惊叹的应用程序(部分在云端、部分在移动设备上)非常容易,并且由于应用程序商店而易于分发,因此人工智能现在也发生了同样的事情。

在任何一个计算时代,ChatGPT都没有一个计算平台能够在60、90 天内覆盖1.5亿人。我的意思是,这是一件非常不寻常的事情。人们正在用它来创造各种各样的东西。因此,我认为您现在看到的只是大量涌现的新公司和新应用程序。

毫无疑问,从各个方面来说,这都是一个新的计算时代。所以我认为我们解释和表达的 TAM,今天确实比以前更容易实现。

问题6:Stacy Rasgon (AllianceBernstein分析师)

嗨,大家好。感谢您回答我的问题。我要向科莱特澄清一下,然后提出一个问题。澄清一下,你说H100的收入高于A100。

这是一个整体的陈述吗?或者是在四分之二发货后的同一时间点?然后是我的实际问题。我想询问有关汽车的问题,特别是梅赛德斯的机会。梅赛德斯今天举办了一场活动,他们讨论了 MB Drive 的软件收入,到本世纪中期可能会达到个位数或低十亿欧元,到本世纪末可能会达到十亿欧元左右。我知道你们应该按照 50 比 50 的比例分配软件收入。

你们正在考虑在类似的时间范围内从梅赛德斯交易中获得的软件收入的数量级是这样的吗?我们应该这样建模吗?谢谢。

回答:

科莱特·克雷斯

伟大的。谢谢史黛西提出的问题。让我首先回答您关于 H100 和 A100 的问题。我们早在第三季度就开始了 H100 的首次发货。

这是一个很好的开始。他们中的许多人在许多季度前就开始了这一过程。现在是我们在第三季度达到他们的生产水平的时候了。因此,第四季度对我们来说是一个重要的时刻,我们看到了 H100 的大幅增长。

这意味着我们的 H100 是第四季度许多 CSP 的关注重点,他们都希望在云实例中启动和运行。因此,我们实际上在第四季度看到的 A100 数量较少,而 H100 数量较多。未来我们倾向于继续销售这两种架构,但就在第四季度,H100 表现强劲。您对梅赛德斯奔驰的其他问题。

我对我们与他们的合作以及工作感到非常满意。我们一直在非常努力地准备进入市场。你是对的。他们确实谈论了软件机会。

他们分两个阶段讨论了他们的软件机会,以及他们可以使用 Drive 做什么以及他们还可以使用 Connect 做什么。他们将职位延长了大约 10 年,着眼于他们在我们面前看到的机会。因此,它符合我们与长期合作伙伴的想法,并随着时间的推移分享收入。

黄仁勋

史黛西,如果我可以补充的话,其中一件事是要说一下梅赛德斯所做的事情是明智的。这是唯一一家大型豪华品牌,从入门级一直到豪华车的最高端,为每一辆汽车安装了丰富的传感器组,每一辆汽车都安装了丰富的传感器组。他们配备了人工智能超级计算机,这样梅赛德斯车队中的每一辆未来汽车都将有助于为未来的客户提供可升级和永久更新的安装基础。如果你能想象一下,如果今天在路上的整个梅赛德斯车队都是完全可编程的,你可以通过OTA,这将代表数千万辆梅赛德斯汽车,这将代表创收机会。这就是 Ola 的愿景。

我认为,他们正在建设的目标将是非凡的。豪华汽车的庞大安装基础将继续更新——为了客户的利益,也为了创收的利益。

问题7:马克·利帕西斯(Mark Lipacis) (杰富瑞分析师)

你好。感谢您提出我的问题。我认为对你来说,Jensen,似乎每年都会出现新的工作负载,并推动对你的流程或生态系统周期的需求。如果我回想一下面部识别、推荐引擎、自然语言处理、Omniverse 和现在的生成式人工智能引擎,您能与我们分享您的看法吗?这是我们未来应该期待的吗?就像全新的工作负载将您的产品需求推向新的水平?我问这个问题的原因是因为我发现你在脚本中的评论很有趣,你提到你对生成人工智能将为你的产品和现在的服务带来的需求的看法似乎是很多,更好比您在过去 90 天内的想法更重要。

因此,如果您正在处理新的工作负载或新的应用程序可以推动更高水平的需求,您是否愿意与我们分享一些您认为可以推动其超越现有水平的内容?今天看到吗?谢谢。

回答:

黄仁勋

是的,马克。我真的很感激这个问题。首先,我有一些你们不知道的新应用程序和我们从未分享过的新工作负载,我想在GTC上与你们分享。这就是我参加 GTC 的原因,我想您会对我们将要讨论的应用程序感到非常惊讶和非常高兴。

现在,您不断听到新应用程序是有原因的。其原因是,第一,NVIDIA是一个多领域加速计算平台。它不像CPU那样完全通用,因为CPU有95%、98%的控制功能,只有2%的数学,这使得它完全灵活。我们不是那样的。

我们是一个加速计算平台,与CPU 配合使用,可以卸载非常重的计算单元,而这些计算单元可能会高度瘫痪以卸载它们。但我们是多域的。我们可以做粒子系统。我们可以做液体。

我们可以做神经元。我们可以做计算机图形学。我们可以参加比赛。第一,我们可以加速各种不同的应用程序。

第二,我们的安装基数非常大。这是唯一的加速计算平台,唯一的平台。从字面上看,这是唯一一个在架构上兼容从 PC 到工作站、从游戏玩家到汽车再到本地的所有云的云。每台计算机在架构上都是兼容的,这意味着开发特殊产品的开发人员会寻找我们的平台,因为他们喜欢它的覆盖范围。

他们喜欢普遍的影响力。他们喜欢加速,这是第一。他们喜欢编程工具的生态系统及其易用性,而且他们可以联系到很多人来帮助他们。全球有数百万 CUDA 专家,软件全部加速,工具全部加速。

然后非常重要的是,他们喜欢触及范围。他们喜欢这样一个事实:他们在开发软件后可以接触到如此多的用户。这就是我们不断吸引新应用程序的原因。最后,这是非常重要的一点。

请记住,CPU 计算的进步速度已经大大放缓。而在我职业生涯的前 30 年,在相同功率下,性能每五年提高 10 倍,然后每五年提高 10 倍。持续前进的速度已经放缓。当人们仍然非常非常迫切地希望将应用程序带到世界上时,随着电力的不断增加,他们无力承担这一任务。

每个人都需要可持续。你不能继续消耗电力。通过加速,我们可以减少您在任何工作负载上使用的电量。因此,所有这些众多原因确实促使人们使用加速计算,并且我们不断发现新的令人兴奋的应用程序。

问题8:Atif Malik (花旗银行分析师)

你好。感谢您回答我的问题。Colette,我有一个关于数据中心的问题。您看到一月份季度的建设计划存在一些弱点,但您正在指导四月份和全年的同比加速。

因此,如果您能为我们对加速的信心进行排序。这是基于您的H100增长或生成人工智能销售还是新的人工智能服务模型?另外,您是否可以谈谈您在企业垂直领域所看到的情况。

回答:

科莱特·克雷斯

当然。谢谢你的提问。当我们考虑我们的增长时,是的,我们将在第一季度实现环比增长,并且预计第一季度也会实现同比增长。未来它可能会加速。

那么我们认为其驱动因素是什么?是的,我们有多个产品周期即将上市。我们现在有H100在市场上。我们还将继续推出新产品,这些产品有时会通过 GPU 计算和网络来推动。然后我们的成绩可能会在下半年公布。

此外,生成式人工智能肯定引起了我们客户的兴趣,无论是 CSP、企业还是初创企业。我们预计这将成为我们今年收入增长的一部分。最后,我们不要忘记,鉴于摩尔定律的终结,专注于人工智能、专注于加速持续是错误的。因此,随着经济的改善,这对企业来说可能非常重要,并且它可以通过云优先的存在来推动企业,因为它们

问题9:约瑟夫·摩尔(摩根士丹利分析师)

伟大的。谢谢。Jensen,您谈到在过去十年中您训练这些模型的能力提高了100万倍。您能给我们一些关于未来几年的情况吗?您的一些拥有这些大型语言模型的客户正在谈论在这种时间范围内复杂性将增加100倍。

我知道 Hopper 的变压器性能提高了六倍。但你能做些什么来扩大规模呢?其中有多少只是反映出未来的硬件支出将会大得多?

回答:

黄仁勋

首先,我将从倒退开始。我相信全世界人工智能基础设施的数量将会增长。原因是人工智能,即智能的生产,将成为制造业。曾经有一段时间,人们只生产实物商品。未来,几乎每家公司都会生产软商品。它恰好以智力的形式出现

数据进来了。该数据中心只做一件事,而且只做一件事。它利用这些数据并生成一个新的更新模型。原材料进来的地方,建筑物或基础设施开始运转,精炼或改进的东西就会产生,具有巨大的价值,这就是所谓的工厂。所以我希望看到人工智能工厂遍布世界各地。其中一些将托管在云中。其中一些将在本地进行。会有一些很大,有一些会非常大,然后会有一些更小。所以我完全期望这会发生,第一。第二。

在接下来的10年里,我希望通过新的芯片、新的互连、新的系统、新的操作系统、新的分布式计算算法和新的人工智能算法以及与开发人员合作提出新的模型,我相信我们将将 AI 速度再提高一百万倍。我们有很多方法可以做到这一点。这就是 NVIDIA 不仅仅是一家芯片公司的原因之一,因为我们试图解决的问题太复杂了。您必须考虑整个堆栈,从芯片一直到通过软件通过网络进入数据中心。

在一家公司的头脑中,我们可以思考整个堆栈。因此,对于计算机科学家来说,这确实是一个很棒的游乐场,因为我们可以在整个堆栈上进行创新。因此,我的期望是,在未来十年中,您将在下一家公司(即人工智能平台)中看到人工智能模型的真正巨大突破。但与此同时,由于其令人难以置信的增长和采用,你将随处看到这些人工智能工厂。

我们的问答环节到此结束。现在我将把电话转回给黄仁勋做总结发言。

总结:

谢谢。Transformer、大语言模型和生成式人工智能的突破积累,将人工智能的能力和通用性提升到了令人瞩目的水平。一个新的计算平台已经出现。针对长期挑战的新公司、新应用和新解决方案正在以惊人的速度被发明出来。

几乎每个行业的企业都在积极应用生成式人工智能来重新构想他们的产品和业务。围绕人工智能的活动水平本来就很高,现在又显着加速。这就是我们十多年来一直努力的时刻。我们已经准备好了。

我们的 Hopper AI 超级计算机配备了新的 Transformer 引擎和 Quantum InfiniBand 结构,现已全面投入生产,CSP 正在竞相开放其 Hopper 云服务。在我们努力满足对 GPU 的强劲需求的过程中,我们期待着全年加速增长。不要错过即将举行的 GTC。我们有很多关于新芯片、系统和软件、新 CUDA 应用程序和客户、新生态系统合作伙伴以及有关 NVIDIA AI 和 Omniverse 的更多信息要告诉您。

这将是我们迄今为止最好的 GTC。到时候那里见。

免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。

举报

评论

  • 推荐
  • 最新
empty
暂无评论