,{Tag.Name} -->'>

近万字会议记录|黄仁勋:美国希望英伟达限制功能,又希望我们在华成功

-

2月22日消息,美国时间周三盘后,公布了截至2024年1月28日的2024财年第四财季财报。财报显示,英伟达第四财季营收达到221亿美元,同比增长265%;净利润为122.9亿美元,同比激增769%。

财报发布之后,英伟达总裁兼首席执行官以及执行副总裁兼首席财务官科莉特·克雷斯(Colette Kress)等高管参加了季度财报电话会议,详细解读了财报的关键点并回答了分析师们的提问。

在电话会议中,英伟达的高管团队详尽地列举了采纳英伟达生成式技术的公司和行业,证明了公司业务在市场上的需求无穷无尽。

黄仁勋指出:“生成式人工智能开启了一种全新的应用领域。这不仅是开发软件的新方法,也是一种新的计算模式,催生了一个全新的产业。这推动了我们的增长。”

他进一步补充道:“我们正在向新的行业扩展我们的多元化业务。”“汽车、医疗、机器人、金融服务等价值数百亿美元的行业都在拥簇我们的生成式人工智能技术。”

黄仁勋预测,人工智能基础设施将在各个行业中得到发展。

“世界已经达到了一个临界点,”英伟达首席财务官克雷斯表示。“第四财季的数据中心收入主要是由生成式人工智能及其相关训练所推动的。我们估计,过去一年中约有40%的数据中心收入来源于人工智能。”

她特别提到,的Copilot使用了英伟达的生成式人工智能技术,最近取得了成功。此外,Meta在最近一个季度也将生成式人工智能视作其增长的主要动力。

克雷斯指出:“过去一年中,各行各业采用人工智能成为了最显著的趋势之一。”“近80家汽车制造商正在使用英伟达的人工智能架构进行自动驾驶和其他应用的开发。我们预计这一数字将继续增长。”

“制药公司正利用我们的生成式人工智能进行计算机辅助的药物发现,”她继续说道。“在金融服务领域,多家公司正在使用人工智能进行欺诈检测、提升客户服务质量及完成交易。”

克雷斯强调:“……我们在全球范围内都见证了强劲的增长。”她提到,第四财季中国市场的数据中心收入占比约为5%,并预计这一比例在当前季度将保持稳定。

英伟达表示,数据中心的营收受到了美国最近对中国市场出口先进人工智能芯片所施加的限制的影响。

黄仁勋表示:“我们清楚地了解这些限制,并且已经通过一种软件无法破解的方式对我们的产品进行了重新配置,这需要一些时间,因此我们现在正重新向中国市场供应产品。”“我们目前正在向中国客户提供样品。”

在第四财季英伟达推出的新产品中,Spectrum-X网络平台是第一个专为提升生成式人工智能性能而设计的以太网平台。

克雷斯表示:“本季度,我们正在按计划交付Spectrum-X。”

她还指出,尽管公司的人工智能GPU芯片供应已经有所改善,但预计在今年晚些时候发货的新一代B100芯片仍将供不应求。

克雷斯表示:“我们很高兴看到基于Hopper架构的产品供应正在改善。”“对Hopper产品的需求依然非常强劲。我们预见到,由于需求远超供应,下一代产品的供应将面临限制。”

黄仁勋则表示,“无论何时我们推出新产品,正如你所知,它们都会从零增长到一个非常大的数字,但这个过程不可能一夜之间完成。”

展望2025财年第一财季,英伟达预计营收将达到240亿美元,有上下2%的浮动。分析师此前预测的当季营收为220亿美元。

黄仁勋表示:“我们一次只预测一个季度,但从根本上讲,增长的条件是非常好的。”“我们正处在从通用计算向加速计算转变的阶段。”

分析师问答环节

高盛分析师:我的问题涉及数据中心业务。显然,这一领域业绩亮眼。我感兴趣的是,在第四财季,你对2024年以及2025年的展望是如何变化的。

在回答时,希望您能谈谈数据中心的一些新兴领域,例如软件和主权人工智能(Sovereign AI),您似乎一直坦率地讨论了这些领域的中长期发展。最近有报道称英伟达可能进军专用集成电路(ASIC)市场,这一说法可信吗?若是真的,英伟达在未来几年内的市场表现又将如何?

黄仁勋:您的第一个问题是?

高盛分析师:您对数据中心业务的展望有何变化?

黄仁勋:我们通常只预测下一个季度。但从根本上讲,2024年、2025年乃至之后的持续增长条件都非常有利。原因在于我们正处于行业两大转型的初期阶段。第一是从通用计算转向加速计算。众所周知,通用计算的发展已开始放缓,无论是云服务提供商、数据中心还是我们自己的通用计算中心,其设备折旧周期已从4年延长至6年。

当数据吞吐量无法像过去那样从根本上显著提升时,就没有必要大规模更新CPU了。因此,必须让一切加速。这正是英伟达长期以来一直致力于开发的领域。通过加速计算,你可以显著提升能效,将数据处理成本降低至原来的1/20。这是一个巨大的转变。当然,速度的提升也是惊人的。这促成了第二个行业转型,即生成式人工智能的崛起。

我们在电话会议上多次讨论过生成式人工智能。但请记住,生成式人工智能是一种全新的应用形式。它正在推动软件开发的新方式,正在创造新型软件。这是一种全新的计算方式。你不能在传统的通用计算平台上部署生成式人工智能。你必须通过加速计算。

回顾一下,它正在催生一个全新的行业,这也与你最后一个关于主权人工智能的问题相关。从某种意义上说,这是一个全新的行业,数据中心不再仅仅是计算、存储数据和为公司员工服务的地方。我们现在的新型数据中心已成为人工智能生成的工厂。

你们听说过它是人工智能工厂。本质上,它需要数据这种原材料,通过英伟达制造的人工智能超级计算机加工,然后转化为极具价值的token。这些token就是人们在ChatGPT、Midjourney或搜索引擎上获得的增强体验。所有你能访问的推荐系统功能现在都得到了增强,这进一步实现了超个性化。

所有这些都使得数字生物学领域涌现出了令人难以置信的创业公司,创造出全新的蛋白质和化合物,这些例子数不胜数。所有这些token都是在一个非常专业的数据中心内生成的。我们称这类数据中心为人工智能超级计算机和人工智能生成工厂。它进入新市场的方式正是你所看到的我们公司业务的多元化。

首先,我们所完成的推理量现在已经创下了纪录。每当你与ChatGPT互动、每当你使用Midjourney,每当你用Sora生成视频,每当你用Firefly编辑视频等等,我们都在进行推理。我们的推理量实现了巨大增长,估计约占40%。由于这些模型变得越来越庞大,训练量持续增加,与此同时推理量也在增加。

我们还在向新行业和业务多元化方向发展。大型云服务供应商继续扩建,他们的资本支出和讨论都反映了这一点,还有一个全新的领域叫做GPU专用云服务供应商。他们主要提供英伟达的人工智能基础设施。你会发现,企业软件平台都在部署人工智能。ServiceNow就是一个典型的例子。Adobe、SAP以及其他企业也是如此。你会发现,消费互联网服务正在使用生成式人工智能来增强所有服务,从而创造更多的超个性化内容。

你会看到我们谈论的是工业级生成式人工智能。现在我们的行业在汽车、医疗和金融服务领域拥有数十亿美元的业务。我们在各个垂直行业的价值加起来有上百亿美元。当然,还有主权人工智能。主权人工智能的存在是因为,每个地区的语言、知识、历史和文化都各不相同,他们拥有自己的数据。

他们希望使用自己的数据进行训练,创造出自己的数字智能,然后利用这些数字智能来优化数据使用。这些都是他们自己的,属于世界上的每一个地区。数据也是他们的。这些数据对他们的社会最有价值。因此,他们希望保护这些数据。他们希望自己将数据转化为人工智能,并自行提供这些服务。

因此,我们发现,日本、加拿大、法国等许多国家和地区都在建立主权人工智能基础设施。因此,我的期望是,美国和西方的经验肯定会在世界各地被复制,这些人工智能生成工厂将遍布每个行业,每个公司和每个地区。因此,我认为,去年我们已经看到生成式人工智能真正成为一种全新的应用领域,一种全新的计算方式,一个正在形成的全新行业,这将推动我们的业务持续增长。

摩根士丹利分析师:我想追问关于40%营收来自推理业务的问题。这个数字比我预期的要高。您能告诉我们一年前这一比例是多少吗?你认为大语言模型的增长有多大,又是如何衡量的?假设在某些情况下,用于训练和推理的GPU是相同的,那么衡量标准的可靠性又有多少?

黄仁勋:我会从后向前回答您的问题。我们之前的估计可能相对保守。一年前,当用户访问互联网时,已经存在推荐系统,无论是新闻、视频还是音乐,都会被推荐给用户。您知道,互联网上有数以万亿计的内容,但智能手机的屏幕只有几英寸大小,因此他们之所以能把所有信息整合到一个设备上,是通过所谓的推荐系统实现的。

这些推荐系统过去都是基于CPU运行的,但最近,随着深度学习和生成式人工智能的发展,推荐系统直接转向了GPU加速计算。如今的推荐系统在GPU加速计算的帮助下,实现了嵌入、近邻搜索、重新排序以及生成增强内容等功能。

因此,现在的推荐系统在每个步骤中都依赖于GPU,而推荐系统是世界上最大的软件引擎之一。几乎世界上每个大公司都需要这些大型推荐系统。当您使用ChatGPT,或是Midjourney等工具创造出大量内容时,以及我们与Adobe旗下Getty和Firefly的合作,都涉及到生成式模型。这样的例子数不胜数。我提到的这些在一年前都不存在,100%都是新进展。

伯恩斯坦分析师:我的问题是,在Blackwell架构芯片供应受限的情况下,下一代产品会如何,能否深入谈谈背后的因素?为什么在Hopper架构芯片供应有所缓解时,Blackwell架构芯片却供应受限?您认为这种供应受限会持续多久,整个2025年新一代芯片的供应会一直受限吗?什么时候能缓解?

黄仁勋:首先,总的来说,我们的供应情况正在改善。从晶圆、封装、存储、电源调节器到收发器、网络和电缆,整个供应链都在进行大量工作。人们通常认为英伟达GPU只是一个芯片,但Hopper GPU有35000个部件,重达70磅,是一个非常复杂的产品。人们有充分的理由将其称为人工智能超级计算机。如果您看过数据中心的背面,就会发现整个系统和布线系统令人难以置信。这是迄今为止世界上最密集、最复杂的网络布线系统。

我们的InfiniBand业务同比增长了5倍。供应链的支持非常好,因此总体而言,供应情况正在改善。我们预计市场需求将继续超过供应,我们全年都将全力以赴。交货周期也在改善,我们将继续尽最大努力。但每当我们推出新产品时,总会从零开始,逐步达到非常大的规模。这不是一蹴而就的事情。一切都是逐步加速的,不会一夜之间实现。

比如,我们现在正在加速出货H200。每当有新一代产品问世时,我们都无法在短时间内满足市场需求。我们还在加速交付Spectrum-X,这方面我们做得非常好。InfiniBand已经成为我们人工智能专用系统的标准。相比之下,Spectrum-X是基于以太网的全新产品。

虽然Spectrum-X以太网平台不是最佳的横向扩展系统,但有了Spectrum-X,我们在以太网基础上增加了自适应路由、拥塞控制、噪音隔离和流量隔离等新功能,使我们能够针对人工智能优化以太网。这样,InfiniBand将成为我们人工智能专用基础设施,而Spectrum-X将是我们人工智能优化网络。对于所有新产品而言,需求总是大于供应。这就是新产品的本质,因此我们正尽可能快地满足需求,总体上我们的供应情况正在改善。

TD Cowen分析师:刚才克雷斯提到,尽管供应情况正在改善,但需求远远超过供应。我的问题分两部分,首先问克雷斯,你们是如何考虑产品的分配的?

然后我想请黄仁勋谈谈在客户之间分配产品的想法,毕竟这些客户有不同的规模、来自不同行业,其中许多还存在竞争关系。你们推动的是一项非常独特的技术,从公司和整个行业的利益出发,你们是如何考虑定价和公平分配的?

克雷斯:我们一直在与客户合作,帮助他们规划如何构建GPU实例、了解我们的分配过程。与我们合作的客户,多年来一直是我们的合作伙伴,因为我们一直在帮助他们打造云计算和企业内部服务。

许多这样的供应商同时运营着多个产品,旨在满足他们客户的多种不同需求,同时也满足他们的内部需求。因此,他们会提前规划,考虑到所需的新集群。我们不仅与他们讨论Hopper架构,还帮助他们了解下一波技术浪潮,了解他们的兴趣,了解他们的需求前景。

因此,关于他们将购买什么、仍在构建什么以及最终客户正在使用什么,这始终是一个不断变化的过程。我们建立的合作关系以及他们对构建系统复杂性的理解确实有助于我们进行分配,同时有助于沟通。

黄仁勋:我们的云服务供应商对英伟达产品路线图和业务转型有非常清晰的认识,这种透明度使他们有信心在何时何地部署哪些产品。因此,他们清楚供货时机、数量,当然还有分配。我们一直在尽最大努力公平分配,避免不必要的分配。

正如您之前提到的,为什么要在数据中心还没有准备好时分配产品?目的就是为了实现公平分配,避免不必要的分配。您问的关于终端市场的问题,我们拥有一个优秀的生态系统,包括原始设备制造商、原始设计制造商和云服务供应商,以及非常重要的终端市场。英伟达的独特之处在于,我们吸引了客户,我们吸引了合作伙伴、云服务供应商和原始设备制造商,我们为他们带来了客户。

其中包括生物公司、医疗保健公司、金融服务公司、人工智能开发商、大语言模型开发商、自动驾驶汽车公司、机器人公司等。特别值得一提的是,有一大批机器人公司正在崛起,包括仓库机器人、手术机器人、人形机器人、农业机器人等各种有趣的机器人公司。所有这些公司和业务都在英伟达的平台上运行,我们为他们提供直接支持。

通常情况下,我们不仅向云服务供应商供货,还将客户引入他们的怀抱,这是一举两得的好事。因此,可以说这个生态系统充满活力。但核心是实现公平分配,避免浪费,并在其中找到机会将合作伙伴和最终用户连接起来。

瑞银分析师:您是如何将积压的订单转化为营收的?您的产品交货周期明显缩短了。克雷斯没有提到库存采购承诺的事情。但如果将产品库存、采购承诺和预购订单综合起来看,实际上供应量似乎有所下降。我们应该如何理解这一点?是因为交货周期缩短,您不需要对供应商做出太多承诺,还是您正在实现某种稳定状态,接近完成当季订单和往期积压订单?

克雷斯:我们对供应商的处理有三个不同的方面。我们会根据现有库存水平来决定分配。当产品到货后,我们会立即将其发给相应的客户。我认为客户非常欣赏我们满足他们预期交货时间表的能力。

第二个方面是我们的采购承诺。我们的采购承诺涵盖了制造产品所需的许多不同组成部分,同时我们也经常预购可能需要的产能。具体组件的产能需求和交货周期各不相同。其中一些可能会持续两个季度,但有些可能会持续数年时间。

我还可以这样解释预购订单。预购订单都是提前设计好的,旨在确保我们在未来在几家制造商那里拥有足够的产能。因此,即使与我们增加供给的数字大致相同,也没有任何意义。毕竟,周期各不相同,因为我们有时需要花很长时间才能购买到所需的东西,或者能为我们建立产能的东西。

Melius Research分析师:我想问克雷斯关于毛利率的问题,您提到毛利率应该回到75%左右。这是因为新产品中的HBM业务吗?你认为这种说法的驱动因素是什么?

克雷斯:我们之前讨论过第四财季的业绩和第一财季的展望。这两个季度的营收和利润都非常特殊,因为考虑到了供应链中部分组件成本。

展望未来,我们预计本财年剩余时间的毛利率将达到75%左右,这将使我们回到第四财季和第一财季达到高峰之前的水平。因此,我们实际上只是在寻找各种组合的平衡点。其中,我们今年剩余时间的出货量将是最大的推动力。

Cantor Fitzgerald分析师:我想问黄仁勋一个宏观层面的问题。考虑到过去十年中GPU计算性能的百万倍提升,未来可能出现类似的进展。您的客户如何看待他们今天对英伟达的投资在长期的效果?今天的训练集群将成为明天的推理集群吗?您怎么看待这个问题的发展?

黄仁勋:我们之所以能实现如此巨大的性能提升,是因为我们的平台具有两个特点。首先,它是加速计算的。其次,它是可编程的。它具有鲁棒性。英伟达是唯一一家贯彻始终的架构,从首次推出卷积神经网络AlexNet开始,到循环神经网络RNN、长短期记忆网络LSTM,再到深度强化学习,每个版本都是如此。

我们能支持每一种人工智能,优化我们的软件堆栈,并将其部署到我们的基础设施中。这才是最神奇的部分。一方面,我们可以发明新的架构和技术如我们的Tensor核心,比如我们的Tensor核心转换引擎,另一方面还能支持现有的安装基数。

因此,我们不断对新的软件算法进行投资。一方面在现有安装基数上不断发明、创造新的行业模型,另一方面创造出像Hopper转换引擎这样的全新产品,并将其应用到未来。我们同时也有能力将新软件带给现有安装基数,并不断使其变得更好,因此,随着时间的推移,我们的新软件丰富了用户现有的安装基数。

此外,我们专注于开发新技术和创造颠覆性的能力。即使未来出现大语言模型的惊人突破,也不应感到惊讶,因为其中一些软件层面的突破需要在CUDA计算平台上运行。因此,我们会带领所有人取得巨大的进步。

富国银行分析师:我想问一下中国市场的业务。之前在财报解读中,您提到已经开始向中国市场交付一些替代方案。您还表示,希望中国市场的营收在整个数据中心业务中继续保持中等个位数的占比。因此,我想问的是,您现在向中国市场交付的产品范围有多广?

黄仁勋:本质上,美国希望英伟达提供的加速计算和人工智能最新功能有所限制。同时,美国也希望看到我们在中国市场取得尽可能大的成功。因此,当新的限制出台时,我们不得不暂停,并立即停止了销售。我们了解了这些限制的内容,并以一种无法通过任何软件手段绕过的方式重新配置了我们的产品。这需要一段时间。因此,我们调整了我们在中国市场的产品供应,目前我们正在向中国客户交付样品。

我们将尽最大努力在中国市场竞争,并在限制的框架内取得成功。上个季度我们的业务大幅下降,是因为我们暂停了业务,停止了销售。我们预计本季度的情况将大致相同。但在那之后,我们希望能够参与竞争,尽我们最大的努力,看看结果如何。

Piper Sandler分析师:我想了解一下软件业务,很高兴听到它已经超过了10亿美元。能否简单介绍一下软件业务的细分情况?

黄仁勋:让我来解释一下英伟达在软件领域取得巨大成功的根本原因。首先,加速计算是在云端发展起来的。云服务提供商拥有非常庞大的工程团队,我们与他们的合作方式是允许他们运行和管理自己的业务。无论出现什么问题,我们都有庞大的团队来应对。他们的工程团队直接与我们的工程团队合作,我们一起改进、修复、维护和修补涉及加速计算的复杂软件堆栈。

加速计算与通用计算完全不同。你不能像编写C++程序那样,只需编译一次,就能在所有CPU上运行。加速计算的每个领域都需要大量软件,无论是机器学习、计算机视觉、语音识别、大语言模型还是所有的推荐系统,都需要不同的软件堆栈。这就是为什么英伟达有数百个库的原因。如果没有软件,你就无法进入新的市场;如果没有软件,甚至无法启动和运行新的应用程序。

软件对加速计算来说是至关重要的。这是加速计算和通用计算之间的根本区别。现在,人们明白了软件的重要性。我们与云服务提供商的合作方式实际上非常简单,就是让我们的大团队与他们的大团队一起工作。

然而,生成式人工智能现在使得每家企业和每家企业软件公司都能够接受加速计算,也必须接受加速计算,因为仅仅通过通用计算来提高吞吐量已经变得越来越困难。所有这些企业软件公司和企业都没有大型工程团队来维护和优化他们的软件堆栈,使其能够在全世界的公有云、私有云和本地环境中运行。

因此,我们要为他们管理、维护、优化他们的所有软件堆栈。我们将它们集成到我们的堆栈中。我们称之为NVIDIA AI Enterprise。我们进入市场的方式就是将NVIDIA AI Enterprise视为一个操作系统,一个人工智能的操作系统。

我们因此向每个GPU收取4500美元的年费。我猜想,世界上的每一家企业以及每一家在公有云、私有云和本地部署软件的企业软件公司,都将运行NVIDIA AI Enterprise。因此,随着时间的推移,这可能会成为一个非常重要的业务。我们已经开了个好头。

黄仁勋结束语:计算机行业正在经历两种平台级的转变。价值数万亿美元的数据中心安装基数正在从通用计算向加速计算转变。每个数据中心都将转向加速计算,这样全世界才能跟上计算需求,提高数据吞吐量,同时控制成本和能耗。英伟达使全新的计算范式和生成式人工智能成为现实,让软件能够学习、理解和生成任何类型的信息。

我们现在正处于一个新行业的开端,人工智能专用数据中心处理大量原始数据,将其提炼成数字智能。正如上一次工业革命中的交流电厂一样,英伟达的人工智能超级计算机本质上是这次工业革命中的人工智能生成工厂。每个行业的每家公司本质上都是建立在他们专有的商业智能之上,未来他们将拥有专有的生成式人工智能。

生成式人工智能已经开启了构建下一个万亿美元人工智能生成工厂基础设施的全新投资周期。我们相信,这两种趋势将推动全球数据中心基础设施的安装基数在未来五年内翻一番,并带来每年数千亿美元的市场机会。这种新的人工智能基础设施将开辟一个全新的应用世界。我们与超大规模云提供商和消费者互联网公司一同开启了人工智能之旅。现在,从汽车、医疗保健到金融服务,从工业、电信到媒体和娱乐,每个行业都加入了这一行列。

英伟达的全栈计算平台,拥有特定行业的应用框架,庞大的开发者和合作伙伴生态系统,速度、规模和覆盖范围,能帮助每个行业的公司成为人工智能公司。(辰辰)

阅读次数:

本文转载:网易科技报道

相关文章!