英伟达24 Q4(23Q4自然季度)财报会议完整纪要

发布于: 雪球转发:22回复:18喜欢:125

详细纪要:

第四季度收入达到创纪录的 221 亿美元,环比增长 22%,同比增长 265%,远高于我们 200 亿美元的预期。2024 财年,收入达到 609 亿美元,比上一年增长 126%。数据中心,2024 财年收入为 475 亿美元,是上一年的三倍多。

世界已经到达新计算时代的转折点。价值数万亿美元的数据中心基础设施安装基础正在迅速从通用计算过渡到加速计算。随着摩尔定律的放缓和计算需求的猛增,公司正在加速所有可能的工作负载,以推动未来性能、成本和能源效率的改进。与此同时,企业开始建设下一代现代数据中心,即我们所说的人工智能工厂,专门用于在生成人工智能时代提炼原始数据并产生价值。

数据中心:

第四季度,在 Nvidia Hopper GPU 计算平台和 InfiniBand 端到端网络的推动下,数据中心收入达到184 亿美元,创下历史新高,环比增长 27%,同比增长 409%。计算收入增长了 5 倍以上,网络收入增长了两倍。

第四季度数据中心的增长是由跨越不同行业、用例和地区的生成式AI和大型语言模型的训练和推理推动的。我们的数据中心平台的多功能性和领先性能可为许多用例带来高投资回报,包括AI训练和推理、数据处理和广泛的CUDA加速工作负载。我们估计,去年数据中心大约 40% 的收入来自AI推理。

构建和部署AI解决方案几乎已涉及每个行业。各行各业的许多公司都在大规模培训和运营其AI模型和服务。企业通过云提供商使用 Nvidia AI 基础设施,包括超大规模、GPU 专用云、私有云或本地云。Nvidia 的计算堆栈可跨云和本地环境无缝扩展,允许客户采用多云或混合云策略进行部署。在第四季度,大型云提供商占数据中心收入的一半以上,支持内部工作负载和外部公共云客户。

微软最近指出,超过 50,000 个组织使用 Github CoPilot 业务来提高开发人员的生产力,推动 Github 收入同比增长加速至 40%。CoPilot for Microsoft 365 采用率在前两个月的增长速度快于之前的两个主要 Microsoft 365 企业版本。

消费互联网公司是AI的早期采用者,也是我们最大的客户类别之一。从搜索到电子商务、社交媒体、新闻、视频服务、娱乐的公司都在使用AI来构建基于深度学习的推荐系统。这些AI投资通过提高客户参与度、广告对话和点击率而产生了丰厚的回报。Meta 在最新季度中表示,更准确的预测和广告商业绩的改善有助于其收入大幅增长。此外,消费互联网公司正在投资生成式AI,通过内容和广告创建、在线产品描述和AI购物辅助的自动化工具为内容创作者、广告商和客户提供支持。

企业软件公司正在应用生成式人工智能来帮助客户实现生产力提升。我们在生成式人工智能的训练和推理方面合作的早期客户已经取得了显着的商业成功。ServiceNow 的生成式人工智能产品在最新一个季度推动了所有新产品系列发布中有史以来最大的年度净新合同价值贡献。我们还与许多其他领先的人工智能和企业软件平台合作,包括 Adobe Databricks、Getty Images、SAP 和 Snowflake

基础大型语言模型领域正在蓬勃发展。Anthropic、谷歌、Inflection、微软、OpenAI 和 XAI 在生成人工智能领域不断取得惊人突破,处于领先地位。Adept、AI 21、Character AI、Coherent、BlackStraw、Perplexity 和 Runway 等令人兴奋的公司正在构建为企业和创作者服务的平台。新的初创公司正在创建大模型,以服务于世界许多地区的特定语言和文化。其他人正在针对完全不同的行业创建基础模型,例如制药、生物医学。这些公司通过超大规模或 GPU 专业云提供商推动了对Nvidia AI 基础设施的需求。就在今天早上,我们宣布与 Google 合作优化其最先进的新 Gemma 语言模型,以加速其在云、数据中心和 PC 中 Nvidia GPU 上的推理性能。

过去一年最显着的趋势之一是汽车、医疗保健和金融服务等垂直行业的企业大量采用人工智能。Nvidia 提供多种应用框架,帮助企业在自动驾驶、药物发现、欺诈检测或机器人等垂直领域采用人工智能。

在汽车领域,利用我们的全栈加速计算平台,我们估计去年通过云或本地的数据中心对汽车垂直行业的收入贡献超过 10 亿美元。Nvidia 驱动基础设施解决方案包括用于开发自动驾驶的系统和软件,包括数据摄取、创建、标记和人工智能训练,以及通过模拟进行验证。全球整车厂、新能源汽车、卡车运输、机器人出租车和一级供应商的近 80 家汽车制造商正在使用 Nvidia 的 AI 基础设施来培训大模型和其他 AI 模型,以实现自动驾驶和 AI 座舱应用。事实上,几乎所有致力于人工智能的汽车公司都在与 Nvidia 合作。随着 AV 算法转向视频转换器以及更多汽车配备摄像头,我们预计 Nvidia 的汽车数据中心处理需求将大幅增长。

在医疗保健领域,数字生物学和生成人工智能正在帮助重塑药物发现、手术、医学成像和可穿戴设备。过去十年,我们在医疗保健领域建立了深厚的专业知识,通过使用 Nvidia Clara 医疗保健平台和 Nvidia BioNeMo(一种生成式 AI 服务,用于开发、定制和部署用于计算机辅助药物发现的 AI 基础模型)。BioNeMo拥有越来越多的预先训练的生物分子 AI 模型,可应用于端到端的药物发现过程。

在金融服务领域,客户正在将人工智能用于越来越多的用例,从交易和风险管理到客户服务和欺诈检测。例如,美国运通使用 Nvidia AI 将欺诈检测准确率提高了6%。

按地理分布来看数据中心收入,除中国外,所有地区的增长均强劲。在美国政府 10 月份实施出口管制法规后,我们的数据中心收入大幅下降。尽管我们尚未获得美国政府向中国运送受限制产品的许可证,但我们已经开始向中国市场运送不需要许可证的替代品。第四季度,中国数据中心收入占我们数据中心收入的中等个位数百分比,我们预计第一季度将保持在类似的范围内。

在美国和中国以外的地区,国家级人工智能已成为额外的需求驱动力。世界各国都在投资人工智能基础设施,以支持在国内数据上用本国语言构建大模型,并支持当地的研究和企业生态系统。

从产品角度来看,绝大多数收入是由我们的 Hopper 架构和 InfiniBand 网络推动的。它们共同成为加速计算和人工智能基础设施的事实上的标准。我们有望在第二季度实现 H200 的首次发货。需求强劲,H200 的推理性能几乎是 H100 的两倍,网络年化收入运行率超过 130 亿美元。我们的端到端网络解决方案定义了现代人工智能数据中心,Quantum Infinite 解决方案同比增长超过 5 倍。Nvidia Quantum InfiniBand 是最高性能 AI 专用基础设施的标准。

我们现在通过推出新的 Spectrum X 端到端产品进入以太网网络领域。Spectrum X 专为数据中心的 AI 优化网络而设计,引入了以太网新技术,这些技术专为集成在我们的频谱交换机、蓝场 CPU 和软件堆栈中的 AI 技术而设计,与传统以太网相比,AI 处理的网络性能提高了 1.6 倍 。领先的原始设备制造商(包括戴尔、HPE、联想和 Supermicro)及其全球销售渠道正在与我们合作,将我们的人工智能解决方案扩展到全球企业。我们有望在本季度推出 Spectrum X。我们的软件和服务产品也取得了巨大进展,年收入达到 10 亿美元。在第四季度,我们宣布 Nvidia DGX Cloud 将扩大其合作伙伴名单,将亚马逊 AWS 纳入其中,加入 Microsoft Azure、Google Cloud 和 Oracle Cloud 的行列。DGX Cloud 用于视频、自有 AI、研发和自定义模型开发以及 Nvidia 开发人员。它将 CUDA生态系统带给 Nvidia CSP 合作伙伴。

游戏:

营收为28.7亿,环比持平,同比增长56%。假期期间消费者对 Nvidia G Force RTXGPU 的强劲需求好于我们的预期。财年收入为104.5亿美元,增长15%。

在 CES 上,我们发布了 GeForce RTX 40 Super 系列 GPU 系列。它们起价 599 美元,提供令人难以置信的游戏性能和生成人工智能功能。销售有了一个良好的开端。Nvidia AITensor Core 和 GPU 提供多达 836 个 AI Top,非常适合为游戏 AI 提供动力,从而创造日常生产力。我们通过 RTX GPU 提供的丰富软件堆栈进一步加速了人工智能。借助我们的 DLSS 技术,8 个像素中的 7 个可以由 AI 生成,从而使光线追踪速度提高 4 倍并提高图像质量。借助适用于 Windows 的可加速最新大型语言模型的推理性能的开源库,,生成式AI 在 RTX AIPCS 上的运行速度可提高 5 倍。

在 CES 上,我们还宣布了各大 OEM 推出的一系列新款 RTX 40 系列 AI 笔记本电脑。这些为各种外形尺寸带来高性能游戏和 AI 功能,包括具有高达 686 顶级 AI 性能的 14 英寸和轻薄笔记本电脑。这些下一代 AI PC 将生成式 AI 性能提高了 60 倍,使其成为性能最佳的 AI PC 平台。在 CES 上,我们发布了 Nvidia Avatar Cloud Engine 微服务,它允许开发人员将最先进的生成式 AI 模型集成到数字化身中。ACE荣获 CES 2024 多项最佳奖项。

Nvidia 拥有一个端到端平台,用于为 RTX PC 和工作站构建和部署生成式 AI 应用程序。这包括开发人员可以纳入其生成式人工智能工作流程的库、SDK、工具和服务。英伟达正在推动下一波通用人工智能浪潮。如今,AI 应用程序已登陆 PC,安装基础已超过 1 亿台 RTX PC,并且有超过 500 个支持 AI 的 PC 应用程序和游戏。

专业可视化:

营收4.63亿,环比增长11%,同比增长105%,财年营收15.5亿,增长1%。本季度的连续增长是由 RTX 数据架构的丰富组合和 GPU 的持续增长推动的。企业正在更新他们的工作站,以支持与生成型人工智能相关的工作负载,例如数据准备、大模型、微调和检索、增强生成。

这些推动需求的关键垂直行业包括制造业、汽车和机器人技术。汽车行业也是 Nvidia Omniverse 的早期采用者,因为它寻求数字化从设计到构建、模拟、操作和体验的工作流程。有工厂,有汽车。在 CES 上,我们宣布创意合作伙伴和开发商正在构建全宇宙动力汽车配置。像路特斯这样的领先汽车制造商正在采用该技术,将个性化、真实性和互动性提升到新的购车体验水平。

汽车:

收入为 2.81 亿美元,环比增长 8%,同比下降 4%。由于汽车制造商继续采用 Nvidia 驱动平台,该财年收入达到 10.9 亿美元,增长 21%,首次突破 10 亿美元大关。

Nvidia Drive Orin 是软件定义 AV Fleet的首选 AI 车载计算机。其在视频驱动领域的继任者Thor,专为视觉变压器而设计,通常提供更多的AI性能,并将广泛的智能功能集成到单个AI计算平台中,包括自动驾驶和停车、驾驶员和乘客监控以及AI内容功能,并将 明年上市。

本季度发布了一些汽车客户公告。Leauto、长城汽车、Ziker、以及小米均发布了基于Nvidia的新车。

其他:

GAAP 毛利率环比扩大至 76%,非 GAAP 毛利率则扩大至 76.7%。由于数据中心的强劲增长和组合,我们第四季度的毛利率受益于有利的组件成本。随后,GAAP 运营费用增长了 6%,非 GAAP 运营费用增长了 9%,主要反映了计算和基础设施投资的增加以及员工的增长。第四季度,我们以股票回购和现金分红的方式向股东返还28亿。在第 24 财年,我们使用了 99 亿美元的现金来回报股东,其中包括 95 亿美元的股票回购。

Q1 FY25展望:

总收入预计240亿,上下浮动2%。我们预计数据中心和专业版的环比增长将被游戏的季节性下降部分抵消。GAPP 和非 GAAP毛利率预计分别为76.3%和77%,上下浮动50个基点。与第四季度类似,第一季度的毛利率受益于有利的零部件成本。在第一季度之后,在今年剩余时间内,我们预计毛利率将恢复到 70% 左右的范围。GAPP 和非 GAAP费用预计分别约为 35 亿和 25 亿。

随着我们继续投资于面前的巨大机遇,2025 财年的GAPP 和非 GAAP运营费用预计将增长 30% 左右。GAPP 和非 GAAP其他收入预计约为 1.5 亿,不包括非关联投资的损益。GAPP 和非 GAAP税率预计为 17%,正负 1%(不包括任何离散项目)。

【问答部分】

问:在数据中心业务方面,过去 一个季度对2024-2025年的预期有何变化?

答:我们每次指导一个季度,但从根本上讲,24、25 日历及以后的持续增长条件非常好。

我们正处于两个全行业转型的开始阶段。首先是从通用计算向加速计算的转变。通用计算开始失去动力,通信服务提供商和许多数据中心(包括我们自己的数据中心)证明了这一点,折旧时间从四年延长到六年。当您无法像以前那样从根本上显着提高其吞吐量时,就没有理由更新更多的 CPU。所以,你必须加速一切。这是 Nvidia 一段时间以来一直在开拓的领域。通过加速计算,您可以显着提高能源效率,并将数据处理成本降低 20 比 1,这是一个巨大的数字。当然还有速度上的提升。

这种速度促成了第二次全行业转型,即生成式人工智能。生成式人工智能是一种新的应用程序,它支持一种新的软件开发方式,创建新型软件。这是一种新的计算方式。你无法在传统的通用计算上进行生成式人工智能;必须加速。它正在催生一个全新的行业,值得退后一步审视。它与你关于主权人工智能的最后一个问题有关。

数据中心第一次不仅仅是计算数据、存储数据和为公司员工提供服务。我们现在有一个关于人工智能生成的新型数据中心,一个人工智能生成工厂。它采用原材料(即数据),用 Nvidia 构建的人工智能超级计算机对其进行转换,并将其转化为极其有价值的代币。这些令牌是人们在 ChatGPT、中间旅程或增强搜索中体验到的。现在,您所有的推荐系统都得到了增强,伴随着超个性化,所有这些数字生物学领域令人难以置信的初创公司都产生了蛋白质和化学物质,这样的例子不胜枚举。这些代币是在一种非常专业的数据中心中生成的,我们称之为人工智能超级计算机和人工智能生成工厂。

我们看到这在新市场中的体现方式存在多样性。

我们所做的推理量是惊人的。几乎每次您与 ChatGPT 交互时,我们都在进行推理。每次您使用旅程时,我们都会进行推断。每次你看到令人惊叹的视频被生成或编辑时,Nvidia 都在进行推理。

我们业务的推理部分增长了约 40%。由于这些模型变得越来越大,训练量仍在继续。我们还向新行业进行多元化发展。从资本支出和讨论中可以看出,大型通信服务提供商仍在建设中。但有一个新类别称为 GPU 专用 CSP。他们专注于 Nvidia 人工智能基础设施。您会看到部署 AI 的企业软件平台,例如 ServiceNow、Adobe、SAP 等。消费者互联网服务现在正在通过生成人工智能来增强其所有服务,以提供更加超个性化的内容。

我们谈论的是工业生成人工智能。我们的行业现在代表着价值数十亿美元的业务,包括汽车、健康、金融服务。

主权人工智能与每个地区的语言、知识、历史和文化不同,并且拥有自己的数据这一事实有关。他们希望利用自己的数据创建自己的数字智能,并提供它来自己利用原材料。我们看到日本、加拿大、法国和许多其他地区正在建设主权人工智能基础设施。我的期望是,美国和西方正在经历的事情肯定会在世界各地复制。这些人工智能生成工厂将遍布每个行业、每个公司、每个地区。

去年,我们看到生成式人工智能成为一个全新的应用空间、一种新的计算方式、形成新的行业,这正在推动我们的增长。

问:我们如何计算出“40% 的数据中心收入来自于AI推理”?历史数字在什么水平?

答:这个比例可能被低估了。互联网有数万亿个项目 ,而你的手机屏幕空间有限。将所有信息压缩到如此小的区域的能力是通过推荐系统实现的。这些推荐系统传统上基于 CPU 方法。然而,最近向深度学习和生成式人工智能的转变,使这些系统完全走上了 GPU 加速的道路。因此,GPU 现在参与了推荐系统的每一步——嵌入、最近邻搜索、重新排序和生成增强信息都需要 GPU 加速。推荐系统是地球上最大的软件引擎,对于全球几乎所有大公司来说都是必不可少的。

每当你使用 ChatGPT、使用MidJourney生成图片时,都会用到推理。与 Getty 的合作、Adobe 的 Firefly也都基于生成式的模型。这些例子以及其他例子都是 100% 新的,一年前还不存在。

问:如何理解“下一代产品将受到供应限制”?

答:首先,总体而言,我们的供应正在改善。我们的供应链为我们做了令人难以置信的工作,从晶圆、封装和存储器到所有电源调节器、收发器、网络和电缆,我们的出货范围很广。人们通常认为 Nvidia GPU 只是一块芯片,但 Nvidia Hopper GPU 有 35,000 个零件,重 70 磅。数据中心后面的布线系统是 世界上迄今为止最密集、最复杂的网络系统。

我们的 InfiniBand 业务同比增长了五倍。供应链为我们提供了极大的支持,总体而言,供应正在改善。我们预计全年需求将继续超过供应,但我们正在尽最大努力缩短周期时间。

然而,对于新产品来说,从零到大销量的增长不会在一夜之间发生。一切都在逐渐升温。我们目前正在加强 H100。随着我们的增加,短期内不可能满足需求。我们还正在加强 Spectrum X,这款全新产品在以太网领域的表现非常出色。InfiniBand 是 AI 专用系统的标准,而传统上不是一个良好的横向扩展系统的以太网通过 Spectrum X 得到了增强。我们添加了自适应路由、拥塞控制和流量隔离等新功能,以针对 AI 优化以太网。InfiniBand 将成为我们的 AI专用基础设施,Spectrum X 将成为我们的 AI 优化网络。对于所有新产品,需求都会超过供应,这是新产品发布的典型现象。我们正在尽快工作以满足需求。总体而言,我们的供应量正在显着增加。

问:目前向中国市场运送的产品有多少?是否会增加其他替代解决方案?

答:美国政府的核心目的是限制英伟达加速计算和人工智能技术在中国市场的最新能力,同时也希望我们能够在这些限制下在中国取得成功。当新的限制措施宣布后,我们立即停下来 充分了解它们,并重新配置我们的产品以使其符合要求,确保它们无法被软件破解。这个过程花了一些时间,导致我们在中国的产品供应重新调整。我们现在正在向中国的客户提供样品,并将尽最大努力竞争和 在规定的限制范围内,在该市场取得成功。

上个季度,由于我们暂停向市场发货,我们的业务大幅下降。我们预计本季度也会出现类似情况。然而,我们希望此后能够有效地竞争我们的业务,并将看看它如何展开。

问:如何拆解软件业务?

答:让我解释一下为什么英伟达会在软件方面非常成功。加速计算与通用计算有很大不同,它主要在云中增长。在云中,服务提供商拥有庞大的工程团队,他们与我们的团队密切合作,管理、修复和维护加速计算所需的复杂软件堆栈。

加速计算涉及不同领域的专用软件堆栈,例如数据处理、机器学习、计算机视觉、语音识别、大型语言模型和推荐系统。Nvidia 开发了数百个库,因为软件对于打开新市场和启用新应用程序至关重要。加速计算软件的必要性是与通用计算的根本区别,许多人花了一些时间才理解这一区别。

随着生成式人工智能的出现,每个企业和软件公司现在都在拥抱加速计算。与大型云服务提供商不同,这些企业没有庞大的工程团队来跨各种环境维护和优化其软件堆栈。Nvidia 通过管理、优化、修补和调整其软件堆栈来解决这一差距,并将其容器化到我们所说的 Nvidia AI Enterprise 中。该解决方案充当运行时,类似于人工智能操作系统,而我们的收费是每个 GPU每年 4,500 美元。

我们预计每个跨云、私有云和本地部署应用程序的企业和软件公司都将使用 Nvidia AI Enterprise,尤其是我们的 GPU。这项计划已经有了一个良好的开端,已经实现了十亿美元的运行率,而我们才刚刚开始。

问:如何根据客户部署准备情况来管理产品分配?如何监控是否存在尚未激活的产品堆积?在跨行业竞争的客户、小型初创公司、医疗保健实体和政府中,如何确保公平的产品分配?

答:首先,我们的CSPs对我们的产品路线图和转换有一个非清晰的视图。这种透明度给了他们信心,知道哪些产品放在哪里,以及何时放置。他们了解时间,数量,以及我们的分配过程。我们努力公平分配,尽我们所能避免不必要的分配。正如之前提到的,数据中心尚未准备好时分配资源是低效的,导致资源闲置。我们的目标是公平分配,并避免不必要的分配。

我们有一个优秀的生态系统,包括OEMs、ODMs、CSPs,以及重要的终端市场。Nvidia的独特之处在于我们不仅提供技术,还将客户带给我们的合作伙伴,包括CSPs和OEMs。这包括生物技术公司、医疗保健公司、金融服务公司、AI开发商、大型语言模型开发商、自动驾驶汽车公司、机器人公司等。我们正见证机器人公司的激增,从仓库和手术机器人到人形机器人和农业机器人等。

这些初创企业和大公司跨越医疗保健、金融服务、汽车等多个领域,在Nvidia平台上工作。我们直接支持他们,有时通过将资源分配给CSP并同时将客户介绍给CSP来促成连接。

我们的生态系统确实充满活力,其核心目标是公平分配资源,同时避免浪费,并寻找连接合作伙伴和终端用户的机会。我们一直在寻找这些机会。

问:公司如何将积压订单转化为收入?产品交货时间已经大大缩短,但如果将库存加上合同和你的预付费供应加起来,公司的供应总量实际上下降了一点。

答:让我重点介绍我们如何看待供应商的三个不同方面。首先,当物品进入库存时我们努力将它们运送给我们的客户。第二部分是我们的采购承诺有许多不同的组件,我们制造所需的组件,但我们也经常采购我们可能需要的产能,产能或者组件所需求的购置时间长度都是不同的。其中一些可能会持续到接下来的两个季度,但有些可能会持续多年。第三,关于我们的预付费也是同样的道理。我们的预付款是预先设计的,以确保我们的几个制造供应商拥有我们未来所需的储备能力。它们只是购置的提前时间长度不同,因为我们有时不得不购买交货时间较长的东西或需要为我们建造容量的东西。

问:如何看待Nvidia产品的长期可用性?今天的训练集群会成为明天的推理集群吗?

答:我们之所以能够如此大幅度提高性能,是因为我们的平台有两个特点。一是它是加速的,二是它是可编程的。Nvidia 是唯一一个从一开始就一直在发展的架构。我们已经能够支持它,优化我们的堆栈,并将其部署到我们的安装基础中。

一方面,我们可以发明新的架构和技术,例如Tensor Cores,例如Tensor Cores的Transformer引擎,并使用不同代的Tensor Cores改进新的数值格式和处理结构,同时支持安装基础 。因此,我们采用所有新的软件算法,投资行业模型的新发明,并在我们的安装基础上运行。

另一方面,每当我们看到一些革命性的东西,比如Transformer,我们就可以创造一些全新的东西,比如Hopper Transformer引擎,并将其应用到未来。因此,我们同时拥有将软件引入安装基础并不断改进的能力。因此,随着时间的推移,我们的新软件不断丰富我们客户的安装基础。对于新技术,我们创造革命性的能力。

【总结发言】

计算机行业正在同时经历两个平台转变。价值数万亿美元的数据中心安装基础正在从通用计算转向加速计算。每个数据中心都将加速以满足计算需求,提高吞吐量,同时管理成本和能源。

Nvidia 令人难以置信的加速实现了一种新的计算范式,即生成式 AI,其中软件可以学习、理解和生成从人类语言到生物学结构和 3D 世界的任何信息。

我们正处于一个新行业的开端,人工智能专用数据中心处理大量原始数据,将其提炼为数字智能,类似于上次工业革命的交流发电厂。Nvidia AI超级计算机是这场工业革命的AI生成工厂。每个行业的每个公司都建立在其专有的商业智能之上。未来,他们专有的生成式人工智能将启动新的投资周期,以建设下一个万亿美元的人工智能生成基础设施。我们相信,这些趋势将使全球数据中心基础设施安装基数在未来五年内翻一番,代表着每年数千亿的市场机会。这种新的人工智能基础设施将开启一个全新的应用世界。

我们与超大规模云提供商和消费者互联网公司一起开启了人工智能之旅。现在,从汽车到医疗保健、金融服务、工业到电信、媒体和娱乐等各个行业都已加入其中。Nvidia 的全栈计算平台拥有特定行业的应用程序、框架以及庞大的开发者和合作伙伴生态系统,为我们提供了速度、规模和覆盖范围,帮助各行业的公司成为人工智能公司。

风险提示:文中看法可能充满笔者个人偏见或错误。提及的任何个股或基金,不作为买入建议,请坚持独立思考。

$纳指100ETF-Invesco(QQQ)$ $半导体板块指数ETF-iShares(SOXX)$ $纳指100ETF-Invesco(QQQ)$

精彩讨论

Ricky02-22 10:21

我刚打赏了这个帖子 ¥6,也推荐给你。

智者一起慢慢变富02-22 16:25

很好的材料,可以全面了解英伟达目前业务的情况。
虽然英伟达季报相当生猛,但我对英伟达的判断是:
1、由于CUDA等软件生态,英伟达在数据中心中保持强势地位是相当大概率的,会持续受益于AI在各行业的渗透。
2、然而,对AI在应用端的爆发式增长,我目前持偏谨慎态度。在广告、图片和视频生成等领域,AI是有实际运用效果的,比如提升效果广告效果,替代部分插画师、图片/视频编辑人员等,甚至通过CoPilot提升编程效率,是有效果的,能够降本增效。但是,这些目前很难说是革命性的,以及爆发性的。这样,AI会在各行各业继续提升渗透率和一个个垂直的应用场景,的确会不断发展,但像生成式AI这样掀起的一波浪潮,这一波大规模的AI数据中心修建和H100的采购,能够继续大规模增长吗?
3、我持谨慎态度。到目前位置,我没有看到生成式AI在应用端所带来的商业价值的革命性突破,演示效果的确不错,有不少的玩法,但除了在广告、游戏、图片/视频生成和编辑方面能看到一些优化和进展,目前为止,没有具有巨大商业价值的革命性突破。
4、那么在这种情况下,像meta等已经买了几十万张H100这样的数据中心建设,能够持续吗,接下来能够买更多吗,我觉得可能不一定。在应用端没有杀手级应用突破前,目前100%以上的增速,可能无法持续。那么,也就无法匹配英伟达目前的100倍PE。
5、我一直觉得,对AI在商业价值上的核心突破,最好的观察窗口就是自动驾驶。自动驾驶是问题定义最清晰,商业价值巨大而明确,同时已经积累了海量数据的领域。搞过AI的应该都能理解这三点为什么最重要。如果自动驾驶都还没突破,其它场景只会更难的,意味着AI技术还没有到达商业价值爆发的临界点。
我在400左右清掉了英伟达,或许是我低估了AI在应用端的渗透速度。但更大概率,是这波生成式AI的数据中心建设浪潮,在应用端落地的乏力下,无法持续太久。
$英伟达(NVDA)$ $Adobe(ADBE)$ $AMD(AMD)$

沉思的香水02-22 22:08

英伟达太强了

震哥的投资世界02-22 12:16

会议纪要要点:
1 预计24Q1 240亿美元上下2%,毛利76.3%。 如果是240亿营收,环比增长8.5%
2 预计24Q1后毛利率将恢复到 70% 左右的范围
3 去年数据中心大约 40% 的收入来自AI推理(这个比例可能被低估了)
4 超过一半数据中心收入来自于大型云提供商,消费互联网是最大的客户类别之一
5、对于下一代AI产品,B100 产品的需求远远超过供应,预计将于今年晚些时候发货。
6 第二季度实现 H200 的首次发货。整体供应正在改善但仍然短缺,供应限制将持续至全年短期内无法满足需求。
7、已开始向中国市场少量供应替代产品。最新财季中国地区数据中心收入占比已降至中等个数数百分比。预期24Q1保持类似比例

理逍遥02-22 23:11

英伟达 5 年后一年利润能到多少?能到 1800 亿美元吗?如果到了,这个利润能持续吗?还是两三年内就能到 1800 亿美元?如果短期内能到 1800 亿的利润,是不是利空微软和谷歌这些啊,钱都拿去买算力了……

全部讨论

很好的材料,可以全面了解英伟达目前业务的情况。
虽然英伟达季报相当生猛,但我对英伟达的判断是:
1、由于CUDA等软件生态,英伟达在数据中心中保持强势地位是相当大概率的,会持续受益于AI在各行业的渗透。
2、然而,对AI在应用端的爆发式增长,我目前持偏谨慎态度。在广告、图片和视频生成等领域,AI是有实际运用效果的,比如提升效果广告效果,替代部分插画师、图片/视频编辑人员等,甚至通过CoPilot提升编程效率,是有效果的,能够降本增效。但是,这些目前很难说是革命性的,以及爆发性的。这样,AI会在各行各业继续提升渗透率和一个个垂直的应用场景,的确会不断发展,但像生成式AI这样掀起的一波浪潮,这一波大规模的AI数据中心修建和H100的采购,能够继续大规模增长吗?
3、我持谨慎态度。到目前位置,我没有看到生成式AI在应用端所带来的商业价值的革命性突破,演示效果的确不错,有不少的玩法,但除了在广告、游戏、图片/视频生成和编辑方面能看到一些优化和进展,目前为止,没有具有巨大商业价值的革命性突破。
4、那么在这种情况下,像meta等已经买了几十万张H100这样的数据中心建设,能够持续吗,接下来能够买更多吗,我觉得可能不一定。在应用端没有杀手级应用突破前,目前100%以上的增速,可能无法持续。那么,也就无法匹配英伟达目前的100倍PE。
5、我一直觉得,对AI在商业价值上的核心突破,最好的观察窗口就是自动驾驶。自动驾驶是问题定义最清晰,商业价值巨大而明确,同时已经积累了海量数据的领域。搞过AI的应该都能理解这三点为什么最重要。如果自动驾驶都还没突破,其它场景只会更难的,意味着AI技术还没有到达商业价值爆发的临界点。
我在400左右清掉了英伟达,或许是我低估了AI在应用端的渗透速度。但更大概率,是这波生成式AI的数据中心建设浪潮,在应用端落地的乏力下,无法持续太久。
$英伟达(NVDA)$ $Adobe(ADBE)$ $AMD(AMD)$

02-22 10:21

我刚打赏了这个帖子 ¥6,也推荐给你。

会议纪要要点:
1 预计24Q1 240亿美元上下2%,毛利76.3%。 如果是240亿营收,环比增长8.5%
2 预计24Q1后毛利率将恢复到 70% 左右的范围
3 去年数据中心大约 40% 的收入来自AI推理(这个比例可能被低估了)
4 超过一半数据中心收入来自于大型云提供商,消费互联网是最大的客户类别之一
5、对于下一代AI产品,B100 产品的需求远远超过供应,预计将于今年晚些时候发货。
6 第二季度实现 H200 的首次发货。整体供应正在改善但仍然短缺,供应限制将持续至全年短期内无法满足需求。
7、已开始向中国市场少量供应替代产品。最新财季中国地区数据中心收入占比已降至中等个数数百分比。预期24Q1保持类似比例

02-22 22:08

英伟达太强了

02-22 23:11

英伟达 5 年后一年利润能到多少?能到 1800 亿美元吗?如果到了,这个利润能持续吗?还是两三年内就能到 1800 亿美元?如果短期内能到 1800 亿的利润,是不是利空微软和谷歌这些啊,钱都拿去买算力了……

“木头姐”在英伟达发布财报前抛售股票的原因——
Groq创始人兼首席执行官Jonathan Ross对媒体表示,在大模型推理场景,Groq LPU芯片的速度比英伟达GPU快10倍,但价格和耗电量都仅为后者的十分之一。
实时推理是通过经过训练的AI模型运行数据的计算过程,以提供AI应用的即时结果,从而实现流畅的最终用户体验。随着AI大模型的发展,实时推理的需求激增。
Ross认为,对于在产品中使用人工智能的公司来说,推理成本正在成为一个问题,因为随着使用这些产品的客户数量增加,运行模型的成本也在迅速增加。与英伟达GPU相比,Groq LPU集群将为大模型推理提供更高的吞吐量、更低的延迟和更低的成本。
他还强调,Groq的芯片,由于技术路径不同,在供应方面比英伟达更充足,不会被台积电或者SK海力士等供应商卡脖子:
GroqChip LPU的独特之处在于,它不依赖于三星或SK海力士的HBM,也不依赖于台积电将外部HBM焊接到芯片上的CoWoS封装技术。

02-22 13:13

我刚打赏了这个帖子 ¥6,也推荐给你。

02-22 21:05