发布于: 雪球转发:0回复:0喜欢:5

$英伟达(NVDA)$ 2025 Q1 电话会议提要

一、公司财务指标

(1)营收:英伟达Q1营收创历史新高至260亿美元,环比增长18%、同比增长262%,超过华尔街预期的大幅增长240%至246亿美元,以及公司官方指引的240亿美元。

连续三个季度的收入同比增速超过200%。

(2)净利润:净利润增超620%至148.1亿美元,市场预期净利润增长540%至131亿美元。

(3)毛利率:GAAP毛利率增长至78.4%;非GAAP毛利率增长至78.9%,显著高于预期,分析师预期将从上季度的76.7%小幅扩大至77%。

(4)每股收益:非GAAP EPS为6.12美元,高于预期的5.65美元,较上年同期的1.09美元猛增超五倍。

(5)Q2业绩指引:公司预计Q2收入为280亿美元(加减2%),好于市场预期的268亿美元,但预计非GAAP毛利率降至75.5%(上下浮动 50 个基点),全年毛利率收窄至约70%,基本符合市场展望。
(6)股东回报:从6月10日开始,英伟达将完成10比1的拆股,截至6月6日收盘之前在册的股东每份普通股可获得额外9股,以便用更低廉的价格方便员工和投资者持有。公司还将股息按拆股后提高150%至每股0.01美元支付给6月11日之前在册的股东。

二、各项业务概述

1)数据中心业务

数据中心收入超越游戏GPU业务,成为英伟达高速增长的关键领域,第一财季的收入创新高至226亿美元,超过市场预期的211亿美元,环比增长23%,同比增长427%。其中,数据中心计算收入为194亿美元,环比增长29%、同比增长478%,得益于用于大语言模型、推荐引擎和生成式AI应用程序来训练和推理的英伟达Hopper GPU计算平台出货量增加。

2)游戏业务

昔日最大的游戏业务季度收入26亿美元,持平市场预期,环比下降8%,同比增长18%。游戏”业务中新增了“AI PC”类目。

3)专业可视化

专业可视化是第三大业务,营收4.27亿美元,不及市场预期的4.8亿美元,环比下降8%,同比增长45%,同比增长主要反映了渠道库存水平正常化后对合作伙伴的销售量增加。

4)汽车业务

汽车是第四大业务,营收3.29亿美元,环比增长17%,同比增长11%,高于市场预期的下降1%至2.9亿美元。同比增长主要由自动驾驶平台推动,环比增长是由人工智能座舱解决方案和自动驾驶平台推动。值得注意的是,“汽车”业务中新增了“机器人”类目。

三、问答环节

问答1:

Stacy Rascan:想深入了解一下blackwell,这对生产来说很重要。现在这是否暗示了发货和交付时间?如果该产品不再只是样品,那么当它实际上到达客户手中时,这意味着什么?

黄仁勋:如果它现在正在生产,我们将会发货,我们已经生产了一段时间。

但我们的生产发货将在第二季度开始,并在第三季度增加,客户应该在第四季度建立数据中心。

Stacy Rascan:明白了。所以今年,听起来我们将看到Blackwell的收入。

黄仁勋:我们今年将会看到很多Blackwell的收入。

问答2:

Timothy R. Curry询问了Blackwell部署与Hopper的不同之处,特别是关于液态冷却的挑战和过渡期的潜在延长。

黄仁勋解释说,Blackwell是一个多配置平台,不仅包括GPU,还支持空气和液态冷却等多种技术。他指出Blackwell被设计为向后兼容,意味着现有Hopper用户可以轻松过渡到Blackwell。此外,NVIDIA已经与合作伙伴就液态冷却技术进行了长时间的准备,确保了供应链和生态系统的就绪,因此对Blackwell的到来和其200 GB的能力交付不会感到惊讶,预示着GB 200将非常出色。

问答3

Beck Aria询问了NVIDIA如何确保其产品具有高利用率,并不会因为供应紧张、竞争等因素导致需求提前或延迟。

黄仁勋回应称,数据中心对GPU的需求极高,NVIDIA正全力满足这一需求。他提到,从ChatGPT和GPT-4o等应用到自动驾驶汽车行业,再到各种生成性AI初创公司,都对GPU有着巨大需求。黄仁勋强调,NVIDIA正在重新设计计算机的工作方式,使其成为能够理解用户意图并提供智能答案的系统,而不仅仅是执行指令的机器。他认为,这种转变将深刻改变全球的计算堆栈,并预示着与全球合作伙伴一起进行的非凡工作。

问答4:

摩根士丹利Joe Moore:

我理解您刚刚关于需求有多强劲的评论,市场对H200和Blackwell产品有很大的需求。您是否预计在从这些产品过渡时,Hopper和H100会有所暂停?人们会等待这些新产品吗,这将是一个好产品?还是您认为对H100的需求足以维持增长?

黄仁勋:

我们看到这个季度Hopper的需求在增加,我们预计随着我们过渡到H 200,需求将超过供应一段时间,因为我们过渡到Blackwell。我,每个人都急于让他们的基础设施上线。原因就是这样,因为他们正在省钱和赚钱,他们希望尽快这样做。

问答5

Toshiahari询问了关于NVIDIA云客户可能成为竞争对手的问题,以及他们是否会局限于解决内部工作负载或能够更广泛地解决问题。

黄仁勋回应称,NVIDIA有几个不同之处使其与竞争对手区别开来。首先,NVIDIA的加速计算架构能够全面处理客户的数据处理和训练需求,从非结构化数据到结构化数据,再到训练和推理,特别是推理已经从检测转变为生成,这对架构提出了新的要求。其次,NVIDIA的平台多功能性能够满足各种计算模式的需求,加速计算提供了一种节省成本和能耗的可持续发展方式。第三,NVIDIA的无处不在使其成为开发人员寻找平台时的理想选择。最后,NVIDIA构建的AI工厂不仅是芯片问题,而是一个系统问题,需要优化所有芯片作为一个系统协同工作,这为数据中心带来了最低的总体拥有成本(TCO)。他还强调,高性能计算也是最低成本的解决方案,因为它减少了基础设施的总体成本。

总的来说,黄仁勋认为NVIDIA的独特价值、架构创新和广泛的应用范围使其在竞争中保持领先。

问答6

Matt Ramsey对NVIDIA推出新平台的速度和性能提升表示赞叹,但也提出了关于客户如何处理现有投资与新一代产品竞争的问题。他询问了随着Blackwell推出,现有产品是否会迅速失去竞争力。

黄仁勋回应说,客户目前仅处于建设的早期阶段,他们需要继续投资以保持技术领先。他强调,NVIDIA的产品路线图是透明的,客户可以预期到未来的产品发展。此外,黄仁勋提到,NVIDIA的数据中心构建能力使他们能够监控和优化整个系统,从而确保客户能够获得最佳性能。他认为,这种对数据中心规模的深刻理解是NVIDIA与众不同的原因。

黄仁勋还提到,NVIDIA不仅仅提供Powerpoint幻灯片上的概念,而是交付真正能在规模上表现出色的系统。他们从头开始构建每一个芯片,并确切知道整个系统中的处理方式,这使得他们能够确保每一代产品都能获得最佳效果。

问答7:

Marco Pacas询问了NVIDIA的加速计算是否仍然是通用计算生态系统的一部分,鉴于当前需求主要由神经网络训练和推理驱动,这似乎是一个有限的工作负载,可能会倾向于定制解决方案。他问到通用计算框架是否面临更多风险,或者是否有足够的变化性来支持这种历史性的通用框架。

黄仁勋回应说,虽然NVIDIA的加速计算是多功能的,但他不会称之为通用,因为它们并不适用于所有类型的计算任务,如电子表格等通用计算任务。他强调NVIDIA的平台设计用于加速特定类型的应用程序,这些应用程序具有高度并行性和线程化的特点。黄仁勋提到,尽管存在一些深刻的差异,但许多应用程序有共同点,这使得NVIDIA的平台能够加速广泛的用例。

他还提到,随着生成性AI和大型语言模型的出现,这些模型需要具有记忆功能,这突显了NVIDIA Grace内存的重要性。他认为,这些进步需要的不是为单一模型设计的专用部件,而是对整个领域真正有益的多功能组件。

最后,黄仁勋强调软件将继续发展和扩展,NVIDIA相信模型将扩展,并为未来的增长做好了准备。他认为平台的多功能性是关键,而过于脆弱或具体的设计,如FPGA或ASIC,并不是真正的计算机解决方案。

问答8:

Serena Pajuri询问了关于GB200系统需求强劲的原因,是否与总体拥有成本(TCO)或架构有关。

黄仁勋解释说,NVIDIA销售GB200的方式与以往相同,将组件分解并集成到计算机制造商中。他提到,今年将推出100种不同的计算机系统配置用于Blackwell,远超预期。他指出,与Hopper相比,Blackwell平台扩展了产品供应,包括多种冷却版本和CPU集成,提供了更高密度的计算能力,并通过液冷技术为数据中心节省成本。此外,Blackwell支持高性能网络和以太网,使NVIDIA AI能够服务于更多只熟悉以太网的客户。总的来说,Blackwell提供了更多样化的产品,满足了不同客户的需求。

问答9

William Stein询问了NVIDIA的基于ARM的Grace CPU如何为客户提供真正的优势,以及这是否意味着客户端也可能出现类似的动态,尤其是在新兴的AI工作负载中。

黄仁勋回答说,尽管与x86合作伙伴如IntelAMD有着良好的合作,但NVIDIA的Grace CPU因其独特的架构提供了一些不可能在传统系统配置中实现的功能。他提到Grace和Hopper之间的内存系统是高度协同和连接的,类似于一个超级芯片,并通过高速接口连接。此外,Grace使用的是低功耗的lpddr内存,有助于节省电力。黄仁勋还强调了Grace架构在创建大型MV Link域方面的优势,这对于大型语言模型的推理至关重要。他提到GB200拥有72节点的MV Link域,相当于72个Blackwells组成的巨大GPU。最后,黄仁勋提到,NVIDIA将继续探索这样的技术机会,并且他们的下一代PC,Copilot plus PC,展示了NVIDIA RTX GPU在支持ARM架构方面的能力,为系统创新开辟了新的机会。

问答10

CJ Muse向Jensen提出了关于NVIDIA未来创新步伐的问题,特别是在GPU和客户竞争日益激烈的背景下,询问了公司未来十年的发展计划。

Jensen Huang回应说,继Blackwell之后,NVIDIA将继续以一年为周期推出新芯片,并快速推出新的网络技术。他提到了Spectrum X以太网产品,并强调了NVIDIA在合作伙伴生态系统方面的投入。Jensen还提到了Infiniband和以太网作为计算结构的重要性,并强调了NVIDIA致力于推进这三个领域的技术发展。

他指出,NVIDIA的软件堆栈和架构将继续快速发展,使得现有投资将随着时间的推移而增值。Jensen强调,NVIDIA的创新不仅将提高计算能力,还将降低总体拥有成本(TCO)。他认为,NVIDIA的架构将为新时代的计算扩展提供支持,并引领一场新的工业革命,其中NVIDIA将大规模地制造人工智能代币。

四、公司发展战略

(1)产品创新

H200 GPU:新一代GPU,Q1开始采样,目前正在生产,预计Q2出货,性能是H100的两倍。

Blackwell平台:下一代AI工厂平台,训练速度比H100快4倍,推理速度快30倍。

(2)网络业务发展

InfiniBand:推动了网络业务的同比增长,预计将在Q2恢复连续增长。

Spectrum-X Ethernet网络解决方案:针对AI从头开始优化,预计将开启NVIDIA网络业务的全新市场。

(3)AI技术应用

AI训练和推理:在NVIDIA CUDA上进行AI训练和推理,加速了云租赁收入的增长。

投资回报:云服务提供商在NVIDIA AI基础设施上每投入1美元,四年内可获得5美元的GPU即时托管收入。

(4)市场扩展

中国市场: 在中国市场推出不需要出口控制许可证的新产品设计。

(5)合作伙伴关系

特斯拉Meta等领先企业建立合作,推动技术在各自领域的应用。

特斯拉:扩展其AI训练集群至35,000个H100 GPU,支持其基于视觉的最新自动驾驶软件FSD版本12。

Meta:宣布其最新的大型语言模型Llama 3,该模型在24,000个H100 GPU上训练,驱动Meta AI,一个全新的AI助手。

(提示:以上是使用AI工具对电话会议内容进行翻译或提取概要,不作为任何投资建议,且自动翻译过程可能存在不准确情况。)