英伟达:1Q25财报分析师电话会议

发布于: 雪球转发:6回复:6喜欢:5

$英伟达(NVDA)$

**科莱特·克雷斯 (Colette Kress)**

谢谢,Simona。Q1(第一季度)我们再次创下了纪录。收入达到260亿美元,环比增长18%,同比增长262%,远远超出我们240亿美元的预期。

从数据中心开始。数据中心的收入达到226亿美元,创下了纪录,环比增长23%,同比增长427%,这一增长得益于对NVIDIA Hopper GPU计算平台持续强劲的需求。计算收入比去年增长了超过5倍,网络收入增长了超过3倍。

数据中心的强劲连续增长是由所有客户类型推动的,以企业和消费互联网公司为首。大型云服务提供商继续推动强劲增长,因为他们在规模上部署和增加NVIDIA AI基础设施,并占我们数据中心收入的40%多。

NVIDIA CUDA上训练和推理AI正在推动云租赁收入增长的有意义加速,为云服务提供商的投资提供了立即而强劲的回报。对于在NVIDIA AI基础设施上每花费1美元,云服务提供商有机会在四年内通过GPU即时托管收入赚取5美元。NVIDIA丰富的软件堆栈和生态系统以及与云服务提供商的紧密集成,使得最终用户可以轻松地在公共云上的NVIDIA GPU实例上运行。

对于云租赁客户,NVIDIA GPU提供了训练模型的最佳时间,最低的训练成本和最低的大型语言模型推理成本。对于公共云服务提供商,NVIDIA带来了客户,推动了收入增长和基础设施投资的回报。领先的LLM公司,如OpenAI、Adept、Anthropic、Character.AI、Cohere、Databricks、DeepMind、Meta、Mistral、xAI等许多其他公司,都在云中构建NVIDIA AI。

企业推动了本季度数据中心的强劲连续增长。我们支持特斯拉将其AI集群扩展到35,000个H100 GPU。他们使用NVIDIA AI基础设施为FSD Version 12的突破性性能铺平了道路,这是他们基于视觉的最新自动驾驶软件。

视频变换器虽然消耗了更多的计算能力,但却显著提高了自动驾驶能力,并推动了NVIDIA AI基础设施在汽车行业的显著增长。我们预计汽车将成为今年数据中心中最大的企业垂直领域,推动在本地和云消费中数十亿美元的收入机会。

消费互联网公司也是一个强劲的增长垂直领域。本季度的一个亮点是Meta宣布了他们的最新的大型语言模型Llama 3,它在一个由24,000个H100 GPU组成的集群上进行了训练。Llama 3为Meta AI提供动力,这是一个在FacebookInstagram、WhatsApp和Messenger上提供的新AI助手。Llama 3公开可用,并在各个行业中引发了一波AI开发浪潮。

随着生成性AI进入更多的消费互联网应用,我们预计随着推理规模随着模型复杂性以及用户数量和每个用户的查询数量的增加,将看到持续的增长机会,从而推动对AI计算的更多需求。

在过去的四个季度中,我们估计推理推动了我们数据中心收入的约40%。训练和推理都在显著增长。像Meta特斯拉构建的大型集群是AI生产的基本基础设施,我们称之为AI工厂。

这些下一代数据中心拥有先进的全栈加速计算平台,数据输入,智能输出。在Q1,我们与100多个客户合作构建了从几百到几万个GPU不等规模的AI工厂,有些达到了10万个GPU。

从地理角度来看,随着世界各国投资于主权AI,数据中心的收入持续多样化。主权AI指的是一个国家利用自己的基础设施、数据、劳动力和商业网络生产人工智能的能力。

国家正在通过各种模式建立国内计算能力。一些国家正在与国有电信提供商或公用事业公司合作采购和运营主权AI云。其他国家则赞助本地云合作伙伴,为公共和私营部门提供共享的AI计算平台。

例如,日本计划投资超过7.4亿美元给关键的数字基础设施提供商,包括KDDI、Sakura Internet和SoftBank,以构建国家的主权AI基础设施。法国的Scaleway,Iliad集团的子公司,正在构建欧洲最强大的云原生AI超级计算机

在意大利,Swisscom集团将建立国家首个也是最强大的由NVIDIA DGX驱动的超级计算机,以开发首个本地训练的意大利语言LLM。在新加坡,国家超级计算机中心正在升级为NVIDIA Hopper GPU,而Singtel正在整个东南亚建设NVIDIA的加速AI工厂。

NVIDIA提供端到端计算到网络技术、全栈软件、AI专业知识以及丰富的合作伙伴和客户生态系统,使主权AI和地区云服务提供商能够迅速启动其国家的AI雄心。从上一年的零开始,我们相信主权AI收入今年可以达到数十亿美元的高位。AI的重要性已经引起了每个国家的注意。

我们推出了专为中国设计的新产品,这些产品不需要出口控制许可证。由于去年10月实施新的出口控制限制,我们在中国的数据中心收入显著下降。我们预计中国市场将继续保持非常竞争。

从产品角度来看,大部分计算收入是由我们的Hopper GPU架构推动的。本季度对Hopper的需求持续增长。由于CUDA算法的创新,我们已经能够在H100上加速LLM推理高达3倍,这可以转化为为像Llama 3这样的流行模型提供服务的成本降低3倍。

我们在Q1开始对H200进行采样,目前正在生产中,并计划在Q2发货。第一个H200系统由Jensen交付给Sam Altman和OpenAI团队,并为上周他们惊人的GPT-4o演示提供动力。H200的推理性能几乎是H100的两倍,为生产部署提供了显著的价值。

例如,使用具有7000亿参数的Llama 3,单个NVIDIA HGX H200服务器可以每秒提供24,000个token,同时支持超过2400个用户。这意味着对于在当前价格每个token上花费的1美元,提供Llama 3 token的API提供商在四年内可以产生7美元的收入。

随着软件的持续优化,我们继续提高NVIDIA AI基础设施在服务AI模型方面的性能。虽然H100的供应证明,我们仍然在H200上受到限制。与此同时,Blackwell正在全面生产中。我们正在努力使我们的系统和云合作伙伴在今年晚些时候实现全球可用。H200和Blackwell的需求远远超过了供应,我们预计需求可能会在明年的大部分时间里超过供应。

Grace Hopper超级芯片正在大量发货。上周在国际超级计算大会上,我们宣布全球有九台新的超级计算机正在使用Grace Hopper,今年共提供了200 exaflops的节能AI处理能力。

这些包括瑞士国家超级计算中心的Alps超级计算机,这是欧洲最快的AI超级计算机。英国布里斯托尔大学的Isambard-AI和德国于利希超级计算中心的JUPITER

我们看到Grace Hopper在超级计算中的附加率达到了80%,这得益于其高能效和性能。我们还自豪地看到,由Grace Hopper驱动的超级计算机占据了世界上最节能的超级计算机的前三个位置。

强大的网络同比增长是由InfiniBand推动的。我们经历了适度的环比下降,这主要是由于供应的时机,需求远远超过了我们能够运输的数量。我们预计网络将在Q2恢复环比增长。在第一季度,我们开始发货我们的新型Spectrum-X以太网网络解决方案,该方案从一开始就针对AI进行了优化。

它包括我们的Spectrum-4交换机、BlueField-3 DPU和新的软件技术,以克服AI在以太网上的挑战,与传统以太网相比,为AI处理提供1.6倍的网络性能。

Spectrum-X正在多个客户中增加产量,包括一个庞大的10万个GPU集群。Spectrum-X为NVIDIA网络打开了全新的市场,并使仅以太网数据中心能够容纳大规模AI。我们预计Spectrum-X将在一年内跃升为价值数十亿美元的产品线。

在3月的GTC上,我们推出了下一代AI工厂平台,Blackwell。Blackwell GPU架构提供比H100快4倍的训练和30倍的推理速度,并且能够在万亿参数的大型语言模型上实现实时生成AI。

Blackwell是一个巨大的飞跃,与Hopper相比,其总拥有成本(TCO)和能耗降低了25倍。Blackwell平台包括第五代NVLink,带有多GPU脊柱和新的InfiniBand和以太网交换机,X800系列专为万亿参数规模的AI设计。

Blackwell旨在支持数据中心的普遍性,从超大规模到企业,从训练到推理,从x86到Grace CPU,从以太网到InfiniBand网络,从空气冷却到液体冷却。Blackwell在推出时将在100多种OEM和ODM系统中提供,是Hopper推出数量的两倍多,代表了世界上每个主要计算机制造商。这将支持在第一年的运输中快速而广泛地采用各种客户类型、工作负载和数据中心环境。

Blackwell上市客户包括亚马逊谷歌Meta微软、OpenAI、甲骨文、特斯拉和xAI。我们宣布了一个新的软件产品,即NVIDIA推理微服务或NIM的推出。

NIM提供安全且性能优化的容器,由NVIDIA CUDA加速支持网络计算和推理软件,包括Triton推理服务器和TensorRT LLM,具有适用于广泛用例的行业标准API,包括文本、语音、图像、视觉、机器人技术、基因组学和数字生物学的大型语言模型。

它们使开发人员能够使用来自NVIDIA、AI21、Adept、Cohere、Getty ImagesShutterstock的领先模型以及来自谷歌、Hugging Face、Meta微软、Mistral AI、Snowflake和Stability AI的开放模型,快速构建和部署生成性AI应用程序。NIM将作为我们NVIDIA AI企业软件平台的一部分,用于在云或本地生产部署。

转向游戏和AI PC。游戏收入为26.5亿美元,环比下降8%,同比增长18%,符合我们对季节性下降的预期。GeForce RTX Super GPU市场反响强烈,整个产品系列的最终需求和渠道库存保持健康。

从我们AI之旅的最开始,我们就为GeForce RTX GPU配备了CUDA Tensor Core。现在拥有超过1亿的安装基础,GeForce RTX GPU非常适合游戏玩家、创作者、AI爱好者,并为在PC上运行生成性AI应用程序提供了无与伦比的性能。

NVIDIA拥有部署和运行快速高效生成性AI推理的完整技术栈。TensorRT LLM现在加速了微软的Phi-3-Mini模型和谷歌的Gemma 2B和7B模型以及流行的AI框架,包括LangChain和LlamaIndex。昨天,NVIDIA和微软宣布对Windows进行AI性能优化,以帮助在NVIDIA GeForce RTX AI PC上加速LLM高达3倍。

顶级游戏开发商,包括网易游戏、腾讯和育碧,正在采用NVIDIA Avatar Character Engine创建逼真的头像,以改变游戏玩家与非玩家角色之间的互动。

转向ProVis。收入为4.27亿美元,环比下降8%,同比增长45%。我们相信,生成性AI和Omniverse工业数字化将推动专业可视化增长的下一波浪潮。在GTC上,我们宣布了新的Omniverse Cloud API,使开发人员能够将Omniverse工业数字孪生和模拟技术集成到他们的应用程序中。

包括ANSYS、Cadence、Dassault Systemes的3DEXCITE、Brand和西门子在内的一些世界上最大的工业软件制造商正在采用这些API。开发人员可以使用它们通过Apple Vision Pro等空间计算设备流式传输工业数字孪生。Omniverse Cloud API将在今年晚些时候在Microsoft Azure上提供。

公司正在使用Omniverse来数字化他们的工作流程。Omniverse强大的数字孪生使纬创,我们的一个制造合作伙伴,能够将端到端生产周期时间减少50%,缺陷率降低40%。而比亚迪,世界上最大的电动汽车制造商,正在采用Omniverse进行虚拟工厂规划和零售配置。

转向汽车。收入为3.29亿美元,环比增长17%,同比增长11%。环比增长是由全球OEM客户的AI驾驶舱解决方案推动的,以及我们自动驾驶平台的实力。同比增长主要是由自动驾驶推动的。我们支持小米成功推出了其首款电动汽车SU7轿车,该轿车基于NVIDIA DRIVE Orin,这是我们为软件定义的AV车队提供的AI汽车计算机。

我们还宣布了NVIDIA DRIVE Thor上的一些新设计胜利,Orin的继任者,由新的NVIDIA Blackwell架构驱动,与包括比亚迪、小鹏、广汽埃安超和Neuro在内的几家领先的EV制造商合作。DRIVE Thor计划从明年开始生产车辆。

好的。转向其他P&L。GAAP毛利率环比扩大至78.4%,非GAAP毛利率为78.9%,原因是库存目标较低。正如上个季度所指出的,Q4和Q1都受益于有利的组件成本。环比来看,GAAP运营费用增长了10%,非GAAP运营费用增长了13%,主要反映了与薪酬相关的成本增加和计算及基础设施投资的增加。

在Q1,我们以股票回购和现金股息的形式向股东返还了78亿美元。今天,我们宣布了我们股票的10比1拆分,6月10日是拆股调整后交易的第一天。我们还将股息增加了150%。

让我来谈谈第二季度的展望。总收入预计为280亿美元,正负2%。我们预计所有市场平台都将实现环比增长。GAAP和非GAAP毛利率预计分别为74.8%和75.5%,正负50个基点,与我们上个季度的讨论一致。

对于全年,我们预计毛利率将在中70%的范围内。GAAP和非GAAP运营费用预计分别约为40亿美元和28亿美元。全年OpEx预计将增长4%左右。

GAAP和非GAAP其他收入和费用预计将产生大约3亿美元的收入,不包括非关联投资的损益。GAAP和非GAAP税率预计将为17%,正负1%,不包括任何独立项目。更多的财务细节包含在CFO评论和其他信息中,这些信息可在我们的IR网站上找到。

我现在想转交给Jensen,因为他想发表一些评论。

好的,我将继续为您翻译剩余部分:

---

**詹森·黄 (Jensen Huang)**

谢谢,Colette。行业正在经历一次重大变革。在我们开始问答环节之前,让我给你们一些关于变革重要性的视角。下一次工业革命已经开始了。

公司和国家正在与NVIDIA合作,将传统数据中心的万亿美元安装基础转变为加速计算,并构建一种新型数据中心,AI工厂,以生产一种新商品,人工智能。

AI将为几乎所有行业带来显著的生产率提升,并帮助公司在扩大收入机会的同时更加节省成本和能源。云服务提供商(CSP)是第一批生成性AI的推动者。有了NVIDIA,CSP加速了工作负载以节省资金和电力。由NVIDIA Hopper驱动的token为他们AI服务带来了收入。NVIDIA云实例吸引了来自我们丰富的开发人员生态系统的租赁客户。

强劲且加速的需求——对Hopper平台上生成性AI训练和推理的需求加速推动了我们的数据中心增长。随着模型学会成为多模态,理解文本、语音、图像、视频和3D并学会推理和计划,训练继续扩大。

我们的推理工作负载增长得非常快。有了生成性AI,推理——现在关于大规模快速token生成,已经变得非常复杂。生成性AI正在推动从基础架构到全栈计算平台的转变,这将改变每一台计算机的交互方式。

从今天的信息检索模型,我们正在转向一个答案和技能生成模型的计算。AI将理解上下文和我们的意图,具有知识,推理、计划并执行任务。

我们正在从根本上改变计算的工作原理以及计算机能做什么,从通用CPU到GPU加速计算,从指令驱动的软件到意图理解模型,从检索信息到执行技能,以及在工业层面上,从生产软件到生成token,制造数字智能。

Token生成将推动AI工厂的多年建设。除了云服务提供商外,生成性AI已经扩展到消费互联网公司和企业,主权AI,汽车和医疗保健客户,创造了多个数十亿美元的垂直市场。

Blackwell平台正在全面生产,并为万亿参数规模的生成性AI奠定了基础。Grace CPU、Blackwell GPU、NVLink、Quantum、Spectrum、混合和交换机、高速互连以及丰富软件和合作伙伴生态系统的结合,让我们能够扩展并提供比前几代更丰富、更完整的AI工厂解决方案。

Spectrum-X为我们打开了一个全新的市场,将大规模AI带到仅以太网数据中心。NVIDIA NIMs是我们的新软件产品,它提供企业级优化的生成性AI,在CUDA上无处不在,从云端到本地数据中心再到通过我们广泛的生态系统合作伙伴网络的RTX AI PC。从Blackwell到Spectrum-X到NIMs,我们已经为下一波增长做好了准备。谢谢。

**西蒙娜·詹科夫斯基 (Simona Jankowski)**

谢谢,Jensen。我们现在开放电话提问。操作员,请问可以开始提问了吗?

**问答环节**

**操作员**

[操作员指导] 您的第一个问题来自Bernstein的Stacy Rasgon。请继续。

**Stacy Rasgon**

嗨,伙计们。感谢接受我的提问。我的第一个问题,我想深入一点到Blackwell的评论,它现在已经全面生产了。这是否意味着发货和交付时间,如果这个产品——听起来不再只是样品了。如果现在已经在客户手中并且已经生产了,那意味着什么?

**Jensen Huang**

我们将发货。嗯,我们已经生产了一段时间。但我们的生产发货将从第二季度开始,并在第三季度增加,客户应该在第四季度建立数据中心。

**Stacy Rasgon**

明白了。所以今年,我们会看到Blackwell的收入,听起来是这样?

**Jensen Huang**

我们今年会看到很多Blackwell的收入。

**操作员**

我们的下一个问题来自UBS的Timothy Arcuri。请继续。

**Timothy Arcuri**

非常感谢。Jensen,我想问你关于Blackwell和Hopper之间的部署,只是在系统性质以及对GB的需求方面。这个部署与Hopper有何不同?我之所以问,是因为大规模的液体冷却以前没有做过,而且在节点级别和数据中心内部都存在一些工程挑战。那么这些复杂性是否会使过渡延长?你如何看待这一切的进展?谢谢。

**Jensen Huang**

是的。Blackwell有许多配置。Blackwell是一个平台,而不是一个GPU。平台包括支持空气冷却、液体冷却、x86和Grace、InfiniBand,现在是Spectrum-X,以及我在GTC上展示的非常大的NVLink领域。所以对于一些客户来说,他们将进入他们已经运送Hoppers的现有数据中心安装基础。他们将很容易地从H100过渡到H200到B100。当然,Blackwell系统已经被设计为向后兼容,如果你愿意的话,从电气和机械上。当然,运行在Hopper上的软件堆栈将在Blackwell上运行得非常好。我们还一直在用整个生态系统来为Blackwell做准备,让他们为液体冷却做好准备。我们已经有一段时间在和生态系统谈论Blackwell了。CSPs、数据中心、ODMs、系统制造商、我们的供应链、冷却供应链、数据中心供应链,没有人会对Blackwell的到来以及我们希望用Grace Blackwell 200交付的能力感到惊讶。GB200将会非常出色。

**操作员**

我们的下一个问题来自Bank of America Securities的Vivek Arya。请继续。

**Vivek Arya**

谢谢您接受我的问题。Jensen,您如何确保您的产品有足够的利用率,并且没有因为供应紧张、竞争或其他因素而导致提前或持有行为?基本上,您在系统中建立了哪些检查,让我们相信货币化与您非常强劲的发货增长保持同步?

**Jensen Huang**

嗯,我想,我会先来一个大的视角,然后直接回答你的问题。数据中心对GPU的需求令人难以置信。我们每天都在竞赛。原因就是这样的应用像ChatGPT和GPT-4o,现在它将是多模态和Gemini及其增长和Anthropic以及所有CSPs正在进行的所有工作正在消耗所有可用的GPU。还有一长串生成性AI初创公司,大约有15,000到20,000家初创公司,它们在所有不同的领域,从多媒体到数字角色,当然还有各种设计工具应用——生产力应用,数字生物学,将AV行业转移到视频,这样他们就可以训练端到端模型,扩大自动驾驶汽车的运营领域。列表非常特别。我们实际上正在竞赛。客户给我们施加了很大的压力,要求我们尽快交付系统并建立起来。当然,我甚至还没有提到所有希望训练他们国家地区自然资源即他们的数据以训练他们地区模型的主权AI。有很多压力要求建立这些系统。总之,需求非常高,它超过了我们的供应。长期来看,这就是——这就是我跳进来发表一些评论的原因。长期来看,我们正在完全重新设计计算机的工作原理。这是一次平台转变。当然,它过去被比作其他平台转变。但时间最终会证明,这比以往的平台转变要深刻得多。原因就在于计算机不再仅是由指令驱动的计算机。它是一个意图理解计算机。它当然理解我们与它的交互方式,但它也理解我们的意思,我们要求它做什么,并且它有能力进行推理,反复推导以制定计划并提出解决方案。因此,计算机的每一个方面都在以这样的方式发生变化,即它不再是检索预录文件,而是现在生成上下文相关的智能答案。因此,这将改变全世界的计算堆栈。你看到了一个构建,事实上,即使是PC计算堆栈也将被彻底改变。这只是我们实验室正在进行的工作以及我们与全世界的所有初创公司、大公司和开发人员所做的事情的开始。这将非常特别。

**操作员**

我们的下一个问题来自Morgan Stanley的Joe Moore。请继续。

**Joseph Moore**

太好了。谢谢您。我明白您刚才所说的关于需求有多强劲。您对H200和Blackwell产品的需求很大。您是否预计在从Hopper和H100过渡到这些产品时会有任何暂停?人们会不会等待这些新产品,这将是一个拥有的好产品?还是您认为对H100的需求足以维持增长?

**Jensen Huang**

我们看到这个季度对Hopper的需求在增加。我们预计——我们预计在一段时间内需求将超过供应,因为我们现在过渡到H200,因为我们过渡到Blackwell。每个人都急于让他们的基础设施上线。原因就是这样,因为他们正在省钱和赚钱,他们希望尽快做到这一点。

**操作员**

我们的下一个问题来自Goldman Sachs的Toshiya Hari。请继续。

**Toshiya Hari**

嗨。非常感谢您接受我的问题。Jensen,我想问关于竞争的问题。我认为您的许多云客户都宣布了新的或更新到他们现有的内部计划,对吧,与他们与您合作的平行。您在中长期内将他们视为竞争者吗?在您看来,他们是否仅限于解决大部分内部工作负载,还是他们未来可以更广泛地解决问题?谢谢。

**Jensen Huang**

我们有几个不同之处。首先,NVIDIA的加速计算架构允许客户处理他们的管道的每个方面,从非结构化数据处理到准备训练,到结构化数据处理,像SQL这样的数据帧处理以准备训练,到训练到推理。正如我在评论中提到的,推理实际上已经发生了根本性的变化,现在是生成。不是试图检测一只猫,这本身就已经很难了,但它必须生成一只猫的每个像素。因此,生成过程是根本不同的处理架构。这也是为什么TensorRT LLM如此受欢迎的原因之一。我们通过我们架构中相同的芯片提高了性能三倍。这告诉你一些关于我们架构的丰富性和我们软件的丰富性。所以第一,你可以用NVIDIA处理一切,从计算机视觉到图像处理,计算机图形学到所有模态的计算。由于通用计算已经走到了尽头,世界现在正遭受计算成本和计算能源膨胀的困扰,加速计算是真正可持续的前进方式。所以加速计算是你节省计算资金的方式,是你节省计算能源的方式。所以我们平台的多功能性导致数据中心的总拥有成本最低。第二,我们在每个云中。所以对于正在寻找平台进行开发的开发人员来说,从NVIDIA开始总是一个不错的选择。我们在本地,我们在云端。我们在任何大小和形状的计算机中。我们几乎无处不在。所以这是第二个原因。第三个原因与我们构建AI工厂的事实有关。这变得越来越明显,AI不仅仅是芯片问题。当然,它从非常好的芯片开始,我们为我们的AI工厂构建了很多芯片,但它是一个系统问题。事实上,即使是AI现在也是一个系统问题。它不仅仅是一个大型语言模型。它是许多大型语言模型一起工作的复杂系统。所以NVIDIA构建这个系统使我们能够优化我们所有的芯片作为一个系统一起工作,能够拥有作为一个系统运行的软件,并能够跨系统进行优化。只要举一个简单的例子,如果你有一个50亿美元的基础设施,你提高了两倍的性能,这是我们通常做的,当你提高基础设施两倍的性能时,它的价值也是50亿美元。那个数据中心的所有芯片都不支付它。所以它的价值真的非常特别。这就是为什么今天,性能至关重要。这是在最高性能也是最低成本的时候,因为携带所有这些芯片的基础设施成本很多。资助数据中心、运营数据中心、与之相关的人员、与之相关的电力、与之相关的房地产,所有这些都加起来。所以最高性能也是最低的TCO。

**操作员**

我们的下一个问题来自TD Cowen的Matt Ramsay。请继续。

**Matthew Ramsay**

非常感谢。大家下午好。Jensen,我在数据中心行业工作了一辈子。我从未见过你们以这样的速度推出新平台,同时获得如此巨大的性能提升,我是说,在训练中提升了5倍。你在GTC上谈到的一些东西,在推理中提升了30倍。观看这真是令人惊叹,但这也创造了一个有趣的对比,即你客户正在花费数十亿美元的当前一代产品,将比你的产品折旧周期更快地不再具有竞争力。所以如果你不介意的话,请谈一谈你如何看待这种情况与客户的演变。随着你转向Blackwell,你将拥有一个非常大的安装基础,显然软件兼容,但安装基础的产品的性能远不如你的新一代产品。听听你如何看待客户沿着这条道路的发展将是很有趣的。谢谢。

**Jensen Huang**

是的。我非常感激。我想提出三点。如果你的建设进度是5%,而如果你的建设进度是95%,你的感觉会非常不同。而且因为你反正只进行了5%的建设,你就要尽可能快地建设。当Blackwell到来时,它会非常棒。然后在Blackwell之后,正如你提到的,我们还有其他的Blackwell即将到来。然后有一个短暂的——我们已经向世界解释了我们的一年节奏。我们希望我们的客户能看到他们的路线图尽可能远,但他们反正只是在建设的早期,所以他们只需要继续建设,好吧。所以将会有很多芯片向他们涌来,他们只需要继续建设和如果愿意的话,通过性能平均进入其中。这就是聪明的做法。他们今天需要赚钱。他们今天想省钱。时间对他们来说真的很有价值。让我给你举一个时间非常有价值的例子,为什么立即建立数据中心的想法如此有价值,以及为什么获得训练时间的想法如此有价值。原因在于,下一个达到下一个主要里程碑的公司将宣布一个开创性的AI。而之后的第二个公司将宣布一个只提高了0.3%的东西。所以问题是,你是想成为反复提供开创性AI的公司,还是提供0.3%更好的公司?这就是为什么这场竞赛,就像所有技术竞赛一样,竞赛非常重要。你看到这种竞赛在多家公司中展开,因为这对拥有技术领导地位,让公司信任领导地位并希望建立在你们的平台上非常重要,并且知道他们正在建立的平台将越来越好。所以领导地位非常重要。训练时间非常重要。提前三个月完成训练时间,以便提前三个月开始一个为期三个月的项目,提前三个月开始训练是非常关键的。这就是为什么我们现在如此疯狂地建立Hopper系统,因为下一个里程碑就在拐角处。所以这是第二个原因。你刚才提到的第一个评论实际上是一个非常好的评论,即我们如何——我们发展得如此之快,并且如此迅速地推进它们?因为我们拥有所有的堆栈。我们真的在这里构建了整个数据中心,我们可以监控一切,测量一切,跨一切进行优化。我们知道所有的瓶颈在哪里。我们不是在猜测。我们不是在制作看起来不错的PowerPoint幻灯片。我们实际上——我们也喜欢我们的PowerPoint幻灯片看起来不错,但我们交付的系统在规模上表现良好。我们之所以知道它们在规模上表现良好的一个有点奇迹的事情是,我们在这里构建了整个AI基础设施,然后我们将其解构并集成到客户的数据中心,无论他们喜欢什么。但我们知道它将如何表现,我们知道瓶颈在哪里。我们知道我们需要在哪里与他们合作进行优化,并知道我们需要帮助他们改进他们的基础设施以实现最佳性能。这种对整个数据中心规模的深入了解是今天让我们与众不同的根本原因。我们从头开始构建每一个芯片。我们确切地知道整个系统是如何进行处理的。所以我们知道它将如何表现,以及如何利用每一个代际的每一个表现。所以我感谢。这就是三点。

**操作员**

您的下一个问题将来自Evercore ISI的Mark Lipacis。请继续。

**Mark Lipacis**

嗨。谢谢接受我的问题。Jensen,过去,你曾经观察到,通用计算生态系统通常主导了每个计算时代。我相信论点是它们可以适应不同的工作负载,获得更高的利用率,降低计算周期的成本。这是你推动通用GPU CUDA生态系统用于加速计算的动机。如果我误解了那个观察,请告诉我。所以问题是,鉴于推动对您解决方案需求的工作负载是由神经网络训练和推理驱动的,这表面上看起来像是有限数量的工作负载,那么这也可能似乎倾向于定制解决方案。所以问题是通用计算框架是否变得更有风险,或者这些工作负载的变异性或快速发展是否足以支持历史通用框架?谢谢。

**Jensen Huang**

是的。NVIDIA的加速计算是多功能的,但我不会称之为通用。比如,我们不会很擅长运行电子表格。那真的是为通用计算设计的。所以有一个——操作系统代码的控制循环可能对通用计算不是很棒,而不是加速计算。所以我会说我我们是多功能的。多年来,我们能够加速许多应用领域,但它们都有很多的共性。也许有一些深刻的差异,但也有共性。它们都是可以并行运行的,都是重度线程化的。5%的代码代表了99%的运行时间,例如。这些都是加速计算的属性。我们平台的多功能性以及我们设计整个系统的事实是,在过去大约10年左右的时间里,你们在这些电话会议中问我的初创公司的数量相当大。每一个,因为他们的架构的脆弱性,当生成性AI出现时,或者当融合模型出现时,当现在即将出现的下一个模型时。突然间,带有记忆的大型语言模型,因为大型语言模型需要有记忆以便与您进行对话,理解上下文。突然间,Grace内存的多功能性变得非常重要。所以每一个这些生成性AI的进步和AI的进步真的在寻求不是为一个模型设计的一个小部件。但是要有一些对这个整个领域真正有好处的东西,但遵循软件的首要原则,软件将继续发展,软件将继续变得更好更大。我们相信这些模型的扩展。有很多原因,我们将在未来几年内轻松扩展一百倍,我们期待着它,我们已经准备好了。所以平台的多功能性真的是关键。如果你太脆弱和太具体了,你还不如直接构建一个FPGA或者构建一个ASIC或者类似的东西,但那几乎不是计算机。

**操作员**

我们的下一个问题将来自Jefferies的Blayne Curtis。请继续。

**Blayne Curtis**

谢谢接受我的问题。实际上有点好奇,我的意思是,在供应受限的情况下,你为中国推出了一个产品,H20。我假设对它的需求量很大,但显然,你还在尽力用其他Hopper产品为你的客户提供服务。只是有点好奇你如何看待下半年的情况。你能详细说明一下对销售以及毛利率的影响吗?

**Jensen Huang**

我没有听到你的问题。有些东西被消音了。

**Simona Jankowski**

H20以及你如何看待在不同的Hopper产品之间分配供应。

**Jensen Huang**

嗯,我们有我们尊重的客户,我们尽最大努力为每个客户服务。确实,我们在华业务比过去低得多。由于对我们技术的限制,现在在中国的竞争也更加激烈。所以这些都是真的。然而,我们继续尽最大努力为那里市场的客户服务,并且尽我们所能,我们将尽最大努力。但我认为总体上,我们关于需求超过供应的评论是针对整个市场的,特别是对H200和Blackwell年底的时候。

**操作员**

我们的下一个问题将来自Raymond James的Srini Pajjuri。请继续。

**Srini Pajjuri**

谢谢。Jensen,实际上更多的是对你所说的澄清。GB 200系统,看起来对系统的需求量很大。历史上,我想你卖了很多HGX板和一些GPU,而系统业务相对较小。所以我很好奇,为什么现在你看到如此强烈的需求对系统的未来?这仅仅是因为TCO还是别的什么,或者是架构?

**Jensen Huang**

是的。我感谢这一点。实际上,我们销售GB200的方式是一样的。我们分离所有有意义的组件,并将它们集成到计算机制造商中。今年有100种不同的计算机系统配置即将推出Blackwell。这太离谱了。坦率地说,Hopper只有一半,但那是在它的高峰。它一开始甚至比那还少。所以你将看到液体冷却版本,空气冷却版本,x86版本,Grace版本,等等。有很多系统正在设计中。它们由我们所有伟大的合作伙伴生态系统提供。没有什么真的改变了。当然,Blackwell平台极大地扩展了我们的提供。CPU的集成和计算密度的压缩,液体冷却将在数据中心节省很多资金,更不用说更加节能了。所以这是一个更好的解决方案。它的扩展性更强,意味着我们为数据中心提供更多的组件,每个人都赢了。数据中心获得了更高的性能,网络从网络交换机,网络。当然,NICs,我们现在有以太网,所以我们可以将NVIDIA AI带到大规模的NVIDIA AI客户,他们只知道如何操作以太网,因为他们拥有的生态系统。所以Blackwell更加扩展。这一代我们为客户提供了更多。

**操作员**

我们的下一个问题将来自Truist Securities的William Stein。请继续。

**William Stein**

太好了。谢谢接受我的问题。Jensen,在某个时候,NVIDIA决定,尽管有相当好的CPU可用于数据中心操作,但你基于ARM的Grace CPU提供了一些真正的优势,这使得这项技术值得交付给客户,可能与成本或功耗或技术协同Grace和Hopper,Grace和Blackwell有关。你能解决是否有可能出现类似的情况,在客户端,尽管有非常好的解决方案,你已经强调了Intel和AMD是非常好的合作伙伴,提供了非常好的x86产品,但可能在新兴的AI工作负载中,NVIDIA可以提供的优势,其他人可能更有挑战?

**Jensen Huang**

嗯,你提到了一些非常好的理由。的确,对于许多应用程序来说,我们与x86合作伙伴的合作非常棒,我们一起构建了出色的系统。但是Grace让我们能够做一些在今天的系统配置中不可能的事情。Grace和Hopper之间的内存系统是一致且连接的。两者之间的互连,称它们为两个芯片几乎很奇怪,因为它就像一个超级芯片。这两个通过每秒数TB的接口连接在一起。这太离谱了。而Grace使用的内存是LPDDR。这是第一个数据中心级低功耗内存。所以我们在每个节点上都节省了很多电力。最后,由于架构,因为我们现在可以用整个系统创建自己的架构,我们可以创建一个具有真正大的NVLink域的东西,这对于下一代大型语言模型的推理至关重要。所以你看到GB200有一个72节点NVLink域。这就像72个Blackwell连接在一起成为一个巨大的GPU。所以我们需要Grace Blackwells才能做到这一点。所以有架构原因,有软件编程原因,然后还有系统原因是我们必须以那种方式构建它们。所以如果我们看到像那样的机会,我们会探索它。正如你在昨天的构建中看到的,我认为非常棒,Satya宣布了下一代PC,Copilot+ PC,它在NVIDIA的RTX GPU上运行得非常好,这些GPU正在笔记本电脑中发货。但它也支持ARM。所以它甚至为PC的系统创新打开了机会。

**操作员**

我们的最后一个问题来自Cantor Fitzgerald的C.J. Muse。请继续。

**C.J. Muse**

下午好。感谢接受问题。Jensen,这是一个更长期的问题。我知道Blackwell甚至还没有推出,但显然,投资者是前瞻性的,并且在潜在的来自GPU和定制ASIC的竞争中,你如何看待NVIDIA的创新步伐和你在过去十年中的百万倍扩展,非常令人印象深刻。CUDA、Varsity、Precision、Grace、Cohere和Connectivity。当你向前看时,未来十年需要解决什么摩擦?也许更重要的是,你今天愿意和我们分享什么?

**Jensen Huang**

嗯,我可以宣布在Blackwell之后还有另一个芯片。我们处于一年的节奏中。所以你还可以指望我们以非常快的节奏推出新的网络技术。我们宣布了Spectrum-X用于以太网。但我们将全力以赴以太网,我们有一个非常令人兴奋的路线图即将推出以太网。我们有一个丰富的合作伙伴生态系统。Dell宣布他们将把Spectrum-X推向市场。我们有一个丰富的客户和合作伙伴生态系统,他们将宣布将我们的整个AI工厂架构推向市场。所以对于那些想要最终性能的公司,我们有InfiniBand计算织物。InfiniBand是一个计算织物,以太网是一个网络。InfiniBand多年来,最初是一个计算织物,变成了一个越来越好的网络。以太网是一个网络,有了Spectrum-X,我们将使它成为一个更好的计算织物。我们完全致力于所有三个链接,NVLink计算织物用于单一计算域,InfiniBand计算织物,以太网网络计算织物。所以我们将以非常快的速度推进所有三个。所以你将看到新的交换机出现,新的NICs出现,新的能力,新的运行在所有三个上面的软件堆栈。新的CPU,新的GPU,新的网络NICs,新的交换机,一堆即将到来的芯片。所有这些,美妙的事情是所有这些都运行CUDA。它们都运行我们的整个软件堆栈。所以你今天对我们的软件堆栈的投资,在不做任何事情的情况下,它只会变得更快,更快,更快,更快。如果你今天对我们的架构进行投资,在不做任何事情的情况下,它将进入更多的云和更多的数据中心,一切都运行。所以我认为我们带来的创新步伐将提高能力,一方面,降低TCO另一方面。所以我们应该能够以NVIDIA架构扩展到这个新的计算时代,并开始这场新的工业革命,我们将大规模地制造不仅仅是软件,我们将制造人工智能token。谢谢。

全部讨论

05-24 00:45

05-23 23:58

05-23 16:39

$英伟达(NVDA)$
**科莱特·克雷斯 (Colette Kress)**
谢谢,Simona。Q1(第一季度)我们再次创下了纪录。收入达到260亿美元,环比增长18%,同比增长262%,远远超出我们240亿美元的预期。
从数据中心开始。数据中心的收入达到226亿美元,创下了纪录,环比增长23%,同比增长427%,这一增长得益于对NVIDIA Hopper GPU计算平台持续强劲的需求。计算收入比去年增长了超过5倍,网络收入增长了超过3倍。
数据中心的强劲连续增长是由所有客户类型推动的,以企业和消费互联网公司为首。大型云服务提供商继续推动强劲增长,因为他们在规模上部署和增加NVIDIA AI基础设施,并占我们数据中心收入的40%多。
在NVIDIA CUDA上训练和推理AI正在推动云租赁收入增长的有意义加速,为云服务提供商的投资提供了立即而强劲的回报。对于在NVIDIA AI基础设施上每花费1美元,云服务提供商有机会在四年内通过GPU即时托管收入赚取5美元。NVIDIA丰富的软件堆栈和生态系统以及与云服务提供商的紧密集成,使得最终用户可以轻松地在公共云上的NVIDIA GPU实例上运行。
对于云租赁客户,NVIDIA GPU提供了训练模型的最佳时间,最低的训练成本和最低的大型语言模型推理成本。对于公共云服务提供商,NVIDIA带来了客户,推动了收入增长和基础设施投资的回报。领先的LLM公司,如OpenAI、Adept、Anthropic、Character.AI、Cohere、Databricks、DeepMind、Meta、Mistral、xAI等许多其他公司,都在云中构建NVIDIA AI。
企业推动了本季度数据中心的强劲连续增长。我们支持特斯拉将其AI集群扩展到35,000个H100 GPU。他们使用NVIDIA AI基础设施为FSD Version 12的突破性性能铺平了道路,这是他们基于视觉的最新自动驾驶软件。
视频变换器虽然消耗了更多的计算能力,但却显著提高了自动驾驶能力,并推动了NVIDIA AI基础设施在汽车行业的显著增长。我们预计汽车将成为今年数据中心中最大的企业垂直领域,推动在本地和云消费中数十亿美元的收入机会。
消费互联网公司也是一个强劲的增长垂直领域。本季度的一个亮点是Meta宣布了他们的最新的大型语言模型Llama 3,它在一个由24,000个H100 GPU组成的集群上进行了训练。Llama 3为Meta AI提供动力,这是一个在Facebook、Instagram、WhatsApp和Messenger上提供的新AI助手。Llama 3公开可用,并在各个行业中引发了一波AI开发浪潮。
随着生成性AI进入更多的消费互联网应用,我们预计随着推理规模随着模型复杂性以及用户数量和每个用户的查询数量的增加,将看到持续的增长机会,从而推动对AI计算的更多需求。
在过去的四个季度中,我们估计推理推动了我们数据中心收入的约40%。训练和推理都在显著增长。像Meta和特斯拉构建的大型集群是AI生产的基本基础设施,我们称之为AI工厂。
这些下一代数据中心拥有先进的全栈加速计算平台,数据输入,智能输出。在Q1,我们与100多个客户合作构建了从几百到几万个GPU不等规模的AI工厂,有些达到了10万个GPU。
从地理角度来看,随着世界各国投资于主权AI,数据中心的收入持续多样化。主权AI指的是一个国家利用自己的基础设施、数据、劳动力和商业网络生产人工智能的能力。
国家正在通过各种模式建立国内计算能力。一些国家正在与国有电信提供商或公用事业公司合作采购和运营主权AI云。其他国家则赞助本地云合作伙伴,为公共和私营部门提供共享的AI计算平台。
例如,日本计划投资超过7.4亿美元给关键的数字基础设施提供商,包括KDDI、Sakura Internet和SoftBank,以构建国家的主权AI基础设施。法国的Scaleway,Iliad集团的子公司,正在构建欧洲最强大的云原生AI超级计算机。
在意大利,Swisscom集团将建立国家首个也是最强大的由NVIDIA DGX驱动的超级计算机,以开发首个本地训练的意大利语言LLM。在新加坡,国家超级计算机中心正在升级为NVIDIA Hopper GPU,而Singtel正在整个东南亚建设NVIDIA的加速AI工厂。
NVIDIA提供端到端计算到网络技术、全栈软件、AI专业知识以及丰富的合作伙伴和客户生态系统,使主权AI和地区云服务提供商能够迅速启动其国家的AI雄心。从上一年的零开始,我们相信主权AI收入今年可以达到数十亿美元的高位。AI的重要性已经引起了每个国家的注意。
我们推出了专为中国设计的新产品,这些产品不需要出口控制许可证。由于去年10月实施新的出口控制限制,我们在中国的数据中心收入显著下降。我们预计中国市场将继续保持非常竞争。
从产品角度来看,大部分计算收入是由我们的Hopper GPU架构推动的。本季度对Hopper的需求持续增长。由于CUDA算法的创新,我们已经能够在H100上加速LLM推理高达3倍,这可以转化为为像Llama 3这样的流行模型提供服务的成本降低3倍。
我们在Q1开始对H200进行采样,目前正在生产中,并计划在Q2发货。第一个H200系统由Jensen交付给Sam Altman和OpenAI团队,并为上周他们惊人的GPT-4o演示提供动力。H200的推理性能几乎是H100的两倍,为生产部署提供了显著的价值。
例如,使用具有7000亿参数的Llama 3,单个NVIDIA HGX H200服务器可以每秒提供24,000个token,同时支持超过2400个用户。这意味着对于在当前价格每个token上花费的1美元,提供Llama 3 token的API提供商在四年内可以产生7美元的收入。
随着软件的持续优化,我们继续提高NVIDIA AI基础设施在服务AI模型方面的性能。虽然H100的供应证明,我们仍然在H200上受到限制。与此同时,Blackwell正在全面生产中。我们正在努力使我们的系统和云合作伙伴在今年晚些时候实现全球可用。H200和Blackwell的需求远远超过了供应,我们预计需求可能会在明年的大部分时间里超过供应。
Grace Hopper超级芯片正在大量发货。上周在国际超级计算大会上,我们宣布全球有九台新的超级计算机正在使用Grace Hopper,今年共提供了200 exaflops的节能AI处理能力。
这些包括瑞士国家超级计算中心的Alps超级计算机,这是欧洲最快的AI超级计算机。英国布里斯托尔大学的Isambard-AI和德国于利希超级计算中心的JUPITER。
我们看到Grace Hopper在超级计算中的附加率达到了80%,这得益于其高能效和性能。我们还自豪地看到,由Grace Hopper驱动的超级计算机占据了世界上最节能的超级计算机的前三个位置。
强大的网络同比增长是由InfiniBand推动的。我们经历了适度的环比下降,这主要是由于供应的时机,需求远远超过了我们能够运输的数量。我们预计网络将在Q2恢复环比增长。在第一季度,我们开始发货我们的新型Spectrum-X以太网网络解决方案,该方案从一开始就针对AI进行了优化。
它包括我们的Spectrum-4交换机、BlueField-3 DPU和新的软件技术,以克服AI在以太网上的挑战,与传统以太网相比,为AI处理提供1.6倍的网络性能。
Spectrum-X正在多个客户中增加产量,包括一个庞大的10万个GPU集群。Spectrum-X为NVIDIA网络打开了全新的市场,并使仅以太网数据中心能够容纳大规模AI。我们预计Spectrum-X将在一年内跃升为价值数十亿美元的产品线。
在3月的GTC上,我们推出了下一代AI工厂平台,Blackwell。Blackwell GPU架构提供比H100快4倍的训练和30倍的推理速度,并且能够在万亿参数的大型语言模型上实现实时生成AI。
Blackwell是一个巨大的飞跃,与Hopper相比,其总拥有成本(TCO)和能耗降低了25倍。Blackwell平台包括第五代NVLink,带有多GPU脊柱和新的InfiniBand和以太网交换机,X800系列专为万亿参数规模的AI设计。
Blackwell旨在支持数据中心的普遍性,从超大规模到企业,从训练到推理,从x86到Grace CPU,从以太网到InfiniBand网络,从空气冷却到液体冷却。Blackwell在推出时将在100多种OEM和ODM系统中提供,是Hopper推出数量的两倍多,代表了世界上每个主要计算机制造商。这将支持在第一年的运输中快速而广泛地采用各种客户类型、工作负载和数据中心环境。
Blackwell上市客户包括亚马逊、谷歌、Meta、微软、OpenAI、甲骨文、特斯拉和xAI。我们宣布了一个新的软件产品,即NVIDIA推理微服务或NIM的推出。
NIM提供安全且性能优化的容器,由NVIDIA CUDA加速支持网络计算和推理软件,包括Triton推理服务器和TensorRT LLM,具有适用于广泛用例的行业标准API,包括文本、语音、图像、视觉、机器人技术、基因组学和数字生物学的大型语言模型。
它们使开发人员能够使用来自NVIDIA、AI21、Adept、Cohere、Getty Images和Shutterstock的领先模型以及来自谷歌、Hugging Face、Meta、微软、Mistral AI、Snowflake和Stability AI的开放模型,快速构建和部署生成性AI应用程序。NIM将作为我们NVIDIA AI企业软件平台的一部分,用于在云或本地生产部署。
转向游戏和AI PC。游戏收入为26.5亿美元,环比下降8%,同比增长18%,符合我们对季节性下降的预期。GeForce RTX Super GPU市场反响强烈,整个产品系列的最终需求和渠道库存保持健康。
从我们AI之旅的最开始,我们就为GeForce RTX GPU配备了CUDA Tensor Core。现在拥有超过1亿的安装基础,GeForce RTX GPU非常适合游戏玩家、创作者、AI爱好者,并为在PC上运行生成性AI应用程序提供了无与伦比的性能。
NVIDIA拥有部署和运行快速高效生成性AI推理的完整技术栈。TensorRT LLM现在加速了微软的Phi-3-Mini模型和谷歌的Gemma 2B和7B模型以及流行的AI框架,包括LangChain和LlamaIndex。昨天,NVIDIA和微软宣布对Windows进行AI性能优化,以帮助在NVIDIA GeForce RTX AI PC上加速LLM高达3倍。
顶级游戏开发商,包括网易游戏、腾讯和育碧,正在采用NVIDIA Avatar Character Engine创建逼真的头像,以改变游戏玩家与非玩家角色之间的互动。
转向ProVis。收入为4.27亿美元,环比下降8%,同比增长45%。我们相信,生成性AI和Omniverse工业数字化将推动专业可视化增长的下一波浪潮。在GTC上,我们宣布了新的Omniverse Cloud API,使开发人员能够将Omniverse工业数字孪生和模拟技术集成到他们的应用程序中。
包括ANSYS、Cadence、Dassault Systemes的3DEXCITE、Brand和西门子在内的一些世界上最大的工业软件制造商正在采用这些API。开发人员可以使用它们通过Apple Vision Pro等空间计算设备流式传输工业数字孪生。Omniverse Cloud API将在今年晚些时候在Microsoft Azure上提供。
公司正在使用Omniverse来数字化他们的工作流程。Omniverse强大的数字孪生使纬创,我们的一个制造合作伙伴,能够将端到端生产周期时间减少50%,缺陷率降低40%。而比亚迪,世界上最大的电动汽车制造商,正在采用Omniverse进行虚拟工厂规划和零售配置。
转向汽车。收入为3.29亿美元,环比增长17%,同比增长11%。环比增长是由全球OEM客户的AI驾驶舱解决方案推动的,以及我们自动驾驶平台的实力。同比增长主要是由自动驾驶推动的。我们支持小米成功推出了其首款电动汽车SU7轿车,该轿车基于NVIDIA DRIVE Orin,这是我们为软件定义的AV车队提供的AI汽车计算机。
我们还宣布了NVIDIA DRIVE Thor上的一些新设计胜利,Orin的继任者,由新的NVIDIA Blackwell架构驱动,与包括比亚迪、小鹏、广汽埃安超和Neuro在内的几家领先的EV制造商合作。DRIVE Thor计划从明年开始生产车辆。
好的。转向其他P&L。GAAP毛利率环比扩大至78.4%,非GAAP毛利率为78.9%,原因是库存目标较低。正如上个季度所指出的,Q4和Q1都受益于有利的组件成本。环比来看,GAAP运营费用增长了10%,非GAAP运营费用增长了13%,主要反映了与薪酬相关的成本增加和计算及基础设施投资的增加。
在Q1,我们以股票回购和现金股息的形式向股东返还了78亿美元。今天,我们宣布了我们股票的10比1拆分,6月10日是拆股调整后交易的第一天。我们还将股息增加了150%。
让我来谈谈第二季度的展望。总收入预计为280亿美元,正负2%。我们预计所有市场平台都将实现环比增长。GAAP和非GAAP毛利率预计分别为74.8%和75.5%,正负50个基点,与我们上个季度的讨论一致。
对于全年,我们预计毛利率将在中70%的范围内。GAAP和非GAAP运营费用预计分别约为40亿美元和28亿美元。全年OpEx预计将增长4%左右。
GAAP和非GAAP其他收入和费用预计将产生大约3亿美元的收入,不包括非关联投资的损益。GAAP和非GAAP税率预计将为17%,正负1%,不包括任何独立项目。更多的财务细节包含在CFO评论和其他信息中,这些信息可在我们的IR网站上找到。
我现在想转交给Jensen,因为他想发表一些评论。
好的,我将继续为您翻译剩余部分:
---
**詹森·黄 (Jensen Huang)**
谢谢,Colette。行业正在经历一次重大变革。在我们开始问答环节之前,让我给你们一些关于变革重要性的视角。下一次工业革命已经开始了。
公司和国家正在与NVIDIA合作,将传统数据中心的万亿美元安装基础转变为加速计算,并构建一种新型数据中心,AI工厂,以生产一种新商品,人工智能。
AI将为几乎所有行业带来显著的生产率提升,并帮助公司在扩大收入机会的同时更加节省成本和能源。云服务提供商(CSP)是第一批生成性AI的推动者。有了NVIDIA,CSP加速了工作负载以节省资金和电力。由NVIDIA Hopper驱动的token为他们AI服务带来了收入。NVIDIA云实例吸引了来自我们丰富的开发人员生态系统的租赁客户。
强劲且加速的需求——对Hopper平台上生成性AI训练和推理的需求加速推动了我们的数据中心增长。随着模型学会成为多模态,理解文本、语音、图像、视频和3D并学会推理和计划,训练继续扩大。
我们的推理工作负载增长得非常快。有了生成性AI,推理——现在关于大规模快速token生成,已经变得非常复杂。生成性AI正在推动从基础架构到全栈计算平台的转变,这将改变每一台计算机的交互方式。
从今天的信息检索模型,我们正在转向一个答案和技能生成模型的计算。AI将理解上下文和我们的意图,具有知识,推理、计划并执行任务。
我们正在从根本上改变计算的工作原理以及计算机能做什么,从通用CPU到GPU加速计算,从指令驱动的软件到意图理解模型,从检索信息到执行技能,以及在工业层面上,从生产软件到生成token,制造数字智能。
Token生成将推动AI工厂的多年建设。除了云服务提供商外,生成性AI已经扩展到消费互联网公司和企业,主权AI,汽车和医疗保健客户,创造了多个数十亿美元的垂直市场。
Blackwell平台正在全面生产,并为万亿参数规模的生成性AI奠定了基础。Grace CPU、Blackwell GPU、NVLink、Quantum、Spectrum、混合和交换机、高速互连以及丰富软件和合作伙伴生态系统的结合,让我们能够扩展并提供比前几代更丰富、更完整的AI工厂解决方案。
Spectrum-X为我们打开了一个全新的市场,将大规模AI带到仅以太网数据中心。NVIDIA NIMs是我们的新软件产品,它提供企业级优化的生成性AI,在CUDA上无处不在,从云端到本地数据中心再到通过我们广泛的生态系统合作伙伴网络的RTX AI PC。从Blackwell到Spectrum-X到NIMs,我们已经为下一波增长做好了准备。谢谢。
**西蒙娜·詹科夫斯基 (Simona Jankowski)**
谢谢,Jensen。我们现在开放电话提问。操作员,请问可以开始提问了吗?
**问答环节**
**操作员**
[操作员指导] 您的第一个问题来自Bernstein的Stacy Rasgon。请继续。
**Stacy Rasgon**
嗨,伙计们。感谢接受我的提问。我的第一个问题,我想深入一点到Blackwell的评论,它现在已经全面生产了。这是否意味着发货和交付时间,如果这个产品——听起来不再只是样品了。如果现在已经在客户手中并且已经生产了,那意味着什么?
**Jensen Huang**
我们将发货。嗯,我们已经生产了一段时间。但我们的生产发货将从第二季度开始,并在第三季度增加,客户应该在第四季度建立数据中心。
**Stacy Rasgon**
明白了。所以今年,我们会看到Blackwell的收入,听起来是这样?
**Jensen Huang**
我们今年会看到很多Blackwell的收入。
**操作员**
我们的下一个问题来自UBS的Timothy Arcuri。请继续。
**Timothy Arcuri**
非常感谢。Jensen,我想问你关于Blackwell和Hopper之间的部署,只是在系统性质以及对GB的需求方面。这个部署与Hopper有何不同?我之所以问,是因为大规模的液体冷却以前没有做过,而且在节点级别和数据中心内部都存在一些工程挑战。那么这些复杂性是否会使过渡延长?你如何看待这一切的进展?谢谢。
**Jensen Huang**
是的。Blackwell有许多配置。Blackwell是一个平台,而不是一个GPU。平台包括支持空气冷却、液体冷却、x86和Grace、InfiniBand,现在是Spectrum-X,以及我在GTC上展示的非常大的NVLink领域。所以对于一些客户来说,他们将进入他们已经运送Hoppers的现有数据中心安装基础。他们将很容易地从H100过渡到H200到B100。当然,Blackwell系统已经被设计为向后兼容,如果你愿意的话,从电气和机械上。当然,运行在Hopper上的软件堆栈将在Blackwell上运行得非常好。我们还一直在用整个生态系统来为Blackwell做准备,让他们为液体冷却做好准备。我们已经有一段时间在和生态系统谈论Blackwell了。CSPs、数据中心、ODMs、系统制造商、我们的供应链、冷却供应链、数据中心供应链,没有人会对Blackwell的到来以及我们希望用Grace Blackwell 200交付的能力感到惊讶。GB200将会非常出色。
**操作员**
我们的下一个问题来自Bank of America Securities的Vivek Arya。请继续。
**Vivek Arya**
谢谢您接受我的问题。Jensen,您如何确保您的产品有足够的利用率,并且没有因为供应紧张、竞争或其他因素而导致提前或持有行为?基本上,您在系统中建立了哪些检查,让我们相信货币化与您非常强劲的发货增长保持同步?
**Jensen Huang**
嗯,我想,我会先来一个大的视角,然后直接回答你的问题。数据中心对GPU的需求令人难以置信。我们每天都在竞赛。原因就是这样的应用像ChatGPT和GPT-4o,现在它将是多模态和Gemini及其增长和Anthropic以及所有CSPs正在进行的所有工作正在消耗所有可用的GPU。还有一长串生成性AI初创公司,大约有15,000到20,000家初创公司,它们在所有不同的领域,从多媒体到数字角色,当然还有各种设计工具应用——生产力应用,数字生物学,将AV行业转移到视频,这样他们就可以训练端到端模型,扩大自动驾驶汽车的运营领域。列表非常特别。我们实际上正在竞赛。客户给我们施加了很大的压力,要求我们尽快交付系统并建立起来。当然,我甚至还没有提到所有希望训练他们国家地区自然资源即他们的数据以训练他们地区模型的主权AI。有很多压力要求建立这些系统。总之,需求非常高,它超过了我们的供应。长期来看,这就是——这就是我跳进来发表一些评论的原因。长期来看,我们正在完全重新设计计算机的工作原理。这是一次平台转变。当然,它过去被比作其他平台转变。但时间最终会证明,这比以往的平台转变要深刻得多。原因就在于计算机不再仅是由指令驱动的计算机。它是一个意图理解计算机。它当然理解我们与它的交互方式,但它也理解我们的意思,我们要求它做什么,并且它有能力进行推理,反复推导以制定计划并提出解决方案。因此,计算机的每一个方面都在以这样的方式发生变化,即它不再是检索预录文件,而是现在生成上下文相关的智能答案。因此,这将改变全世界的计算堆栈。你看到了一个构建,事实上,即使是PC计算堆栈也将被彻底改变。这只是我们实验室正在进行的工作以及我们与全世界的所有初创公司、大公司和开发人员所做的事情的开始。这将非常特别。
**操作员**
我们的下一个

05-23 16:23

05-23 15:52

🐎

05-23 15:31

英伟达