英伟达—— 原来GPU不只是用来玩游戏

原文:传送门

1.公司简介

$英伟达(NVDA)$ 是以GPU(Graphics Process Unit,图形处理单元)芯片 设计起家的人工智能计算公司。公司创立于 1993 年,总部位于美国加利福尼亚州圣克拉拉市。美籍华人 Jensen Huang(黄仁勋)是创始人兼 CEO。

2.发展历史

1、1999 年,NVIDIA 定义了 GPU,GPU 的出现被业界视为现代计算机图形技术的开端。

2、1999年 1 月在纳斯达克挂牌上市,在 2000 年它收购了曾经在 90 年代称霸图形显示市场的 3dfx 公司的 知识产权,逐渐占据图形显示市场的优势地位。

3、到 2021 年为止,在消费 PC 领域,能够 量产 GPU 的公司只有英伟达、AMD 和英特尔,其中英特尔主要是以集成 GPU 为主,AMD 既有集成 GPU 也有独立 GPU,英伟达主要是独立 GPU。在独立 GPU 领域,英伟 达 2021Q1 占据 81%的市场份额,处于绝对的领先地位。       

3.商业模式

英伟达主要业务如下:

1、消费者(游戏)业务 Gaming

2、数据中心业务 Data Center

3、汽车业务 Auto Drive

4、专业解决方案业务 Professional Visualization

5、OEM 业务及其他

英伟达主要为这些领域提供 GPU 芯片及相应的软件工具链。   


// 3.1 消费者(游戏)相关业务

游戏业务是英伟达一直以来的主营业务,该业务主要以卖PC端的GPU为主,主要产品是GeForce系列GpuGeFoece Now服务

3.1.1 GeFoece显卡

这些高端显卡可以给消费者的玩游戏提供更真实的视觉效果,对于追求极致游戏体验的玩家有非常大的吸引力,主要有如下技术作为支持:

1、光线追踪Ray Tracing

2、深度学习超级采样 Deep Learning Super Sampling

3、Reflex技术:减少系统延迟

 

     

3.1.2 Geforce Now云游戏平台

英伟达云游戏平台 Geforce Now 采用 Bluefield 架构,解决云游戏服务器的延迟问题。对于云游戏来说,延迟是最亟待解决的问题。而控制延迟的关键,不仅需要良好的通信网络能力,更为重要的是对云端服务器的数据处理特别是图形相关的处理速度。

英伟达利用其在数据中心的经验,优化了服务器架构,推出了英伟达云游戏平台 Geforce Now,采用 RTX 服务器来实现更低延迟(整体延迟小于 100ms),使云游戏体验得到了优化。

由于目前云游戏仍受限于网络延迟,整个市场尚不成熟,但随着基础设施的不断发展,此项业务将为英伟达带来未来全新增长空间。       

 

目前Geforce Now的收费如下:

// 3.2 数据中心业务

英伟达数据中心业务主要分为4个方向

1、垂直行业

2、超大规模计算(hyperscale)

3、高性能计算

4、软件

 

3.2.1 垂直行业

垂直行业是指为身处不同行业的公司定制由GPU,以及其他硬件所搭建的数据中心基础设施平台,主要产品为:

1、DGX A100 数据中心

2、 DGX SuperPOD 解决方案。

一体式 AI 数据中心 DGX Station A100,使 AI 超算中心的搭建更为方便。以 A100 GPU 为核心的数据中心 DGX Station A100,AI 性能可以达到 2.5 Petaflops,通过 NVIDIA NVLink 完全互连,实现多个 NVIDIA A100 GPU 融合在一起的工作组服务器,目前有 320GB/640GB 等不同版本可供选择。

         

NVIDIA DGX SuperPOD 解决方案,促进了 AI 超算行业的发展。全新 DGX A100 640GB 系统也将集成到企业版 NVIDIA DGX SuperPOD 解决方案,使机构能基于以 20 个 DGX A100 系统为单位的一站式 AI 超级计算机,实现大规模 AI 模型的构建、训练和 部署。 

 

3.2.2超大规模计算(hyperscale)

作为安培架构的代表,A100 GPU 在在深度学习、数据分析、能效方面都获得了前 所未有的优化,被广泛应用于自然语言识别、大数据分析、科学计算领域。在 GTC2020 大会上,英伟达推出了安培架构的首款超算 GPU——A100。

A100 引入了有着里程碑式意义的 Tensor Cores 双精度计算技术,这使得 A100 的算力比前一代 V100 提高了 175%。 NVIDIA A100 Tensor Core GPU 针对 AI、数据分析和 HPC(high performance computing, 高性能计算)等应用上,实现了更强的加速,针对极其严峻的计算挑战上有了更大作为。作为 A100 GPU 系列中的最新力作,在架构特性上有如下特点:

1.采用第三代 Tensor Core 核心。通过全新 TF32,将上一代 Volta 架构的 AI 吞吐 量提高多达 20 倍。通过 FP64,将 HPC 性能提升了 2.5 倍。通过 INT8,将 AI 推理性能提高多达 20 倍,并且支持 BF16 数据格式。

2.采用更大、更快的HBM2eGPU内存。从而使内存容量增加一倍,在业内率先实现 2TB/s 以上的内存带宽。

3.采用 MIG(Multi-Instance GPU,多实例 GPU)技术,将单个独立实例的内存 增加一倍,可最多提供七个 MIG,每个实例具备 10GB 内存。

4.采用结构化稀疏技术,将推理稀疏模型的速度提高两倍。

5.第三代 NVLink 和 NVSwitch,相较于上一代互连技术,可使 GPU 之间的带宽 增加至原来的两倍,将数据密集型工作负载的 GPU 数据传输速度提高至 600 GB/s。 

   

3.2.3 高性能计算


高性能计算最主要的应用就是超级计算机,一台超级计算机包含千个计算节点,这些节点协同工作来完成一项或多项任务,他类似于将书前台PC联网在一起,将计算能力相结合,以更快地完成任务。

英伟达在超级计算加速器市场占有绝对主导地位,市场占有率超过90%。

全球顶级云服务商采用英伟达硬件系统为其用户赋能。鉴于英伟达 GPU 在并行计 算中的良好表现,亚马逊 AWS、微软 Azure、谷歌、甲骨文都纷纷采用英伟达的 GPU 进 行硬件架构的搭建。

据英伟达官网报道,在 GTC China 2020 大会上,英伟达宣布阿里云、百度智能云、滴滴云、腾讯云的大型数据中心正在迁移至基于英伟达安培架构的平台,以充分利用 A100 在图像识别、语音识别以及包括计算流体动力学、计算金融学、 分子动力学在内的推理和训练方面提供的速度与可扩展性。       

3.2.4 软件

较为知名的软件应用:

1、Omniverse,元宇宙的核心产品

2、AI Enterprise,降低企业AI部署的门槛

 

3.2.4.1 Omniverse

Omniverse 定位做连接者,可提供虚拟世界之间、真实事件与虚拟世界领域中的连 接平台。作为一个功能强大的连接器,Omniverse 将软件与用户完美地连接在一起。其软件端与 Maya,3DS-Max 等市面上绝大多数开发平台相兼容;与此同时,Omniverse 在用户侧借助强大的硬件系统减少对终端设备的限制,可满足不同人群多元化的需求。     

  

Omniverse 现已发布 7 种软件应用程序,直接面向用户提供 3D 数字设计功能。除了集成到 Omniverse 的外部连接器,NVDA 还构建了有用的内部应用程序,可直接应用于平 台内的 3D 数字设计过程。

到目前为止,NVDA 已经发布了七个不同的 Omniverse 应用程序,具体包括:

1、Audio-2-Face(通过音频输入转换成面部表情)

2、Create(实现渲染、模 拟、照明等环境的模拟及创作)

3、Drive Sim(自动驾驶模拟仿真)

4、Isaac Sim(数据合成 生成器,主要用于机器人领域中的设计和仿真)

5、Kaolin(利用 PyTorch 库加速 3D 深度学 习的研究工具)

6、Machinima(用于游戏电影领域中的情节渲染)

7、View(提供渲染功能)。     

 

Omniverse 主要提供三种收费平台产品和应用场景分别为:

1、Omniverse Enterprise(主要用于 3D 协作)

2、数字孪生(主要 用于数字工厂等领域)

3、智能语音助理 Avatar(主要用于零售、呼叫中心等领域)。

从收费标准来看,Omniverse Enterprise 收费标准为$100-$2000/年,Avatra 收费标准为$1,000/ 年。     

 

 

3.2.4.2 AI Enterprise

AI Enterprise是英伟达面向企业 AI 市场的开发工具、软件框架。

2021 年,英伟达宣 布联合 vmware 推出 AI Enterprise,帮助各个行业企业释放 AI 力量。从产品属性来看, NVIDIA AI Enterprise 是一套由英伟达优化、认证和支持的企业级人工智能综合套件,专 为 VMware vSphere 7 使用。

NVIDIA AI Enterprise 的人工智能工作负载在 VMware vSphere 上实现了虚拟化,并通过 TensorFlow、PyTorch 等人工智能框架进行开发。它面 向多个领域的企业,提供了开发 AI 解决方案所需的软件,如医疗保健领域的高级诊断、制 造领域的智能工厂以及金融服务领域的欺诈检测。     

收费模式

1、订阅费

2、永久许可费。

NVIDIA AI Enterprise 通过订阅许可的形 式提供,基于每个 CPU socket 的订阅许可的年费为 2000 美元,并且包含企业标准支持 服务(每周 5 天,每天 9 小时)。永久许可费用为 3595 美元并且需要另行购买支持服务。客户还可以升级为 “关键业务支持”以获得全天候的 NVIDIA AI Enterprise 服务。     

   

 

3.2.5 其他布局

3.2.4.1 自研 CPU——Grace

推出自研 CPU Grace,实现英伟达在数据中心、HPC 以及计算设备上的的全自研。在 2021GTC 大会上,英伟达推出了 Grace CPU 并计划在 2023 年量产。

这款 CPU 是英伟达第一次推出的 CPU 产品,采用了 ARM v9 指令集,该指令集主要是增强面向矢量、 机器学习和数字信号处理器的相关内容,与数据中心所需要处理的事物息息相关,因此 这款 CPU 的主要应用场景将是在数据中心领域。据英伟达宣称,Grace CPU 是高度专业 化的、面向巨型人工智能和 HPC 的产品,可以训练拥有超过一万亿个参数的 NLP 模型。          

 

3.2.4.2 自研Bluefield芯片

Bluefield 芯片可分担 CPU 的网络、存储和安全等任务,可以大大减少 CPU 的工 作量的同时提高数据交互性能。Bluefield 的芯片被英伟达也称为 DPU(Data Processing Unit,数据处理单元),其实际上是一个高级的网卡。

基于 DPU 的智能网卡将成为云数据中心设备中的核心网络部件,逐渐承担原先需要 CPU 来执行的网络数据处理、分发的重任,从而从根本上实现软件定义网络(SDN)和 网络功能虚拟化(NFV)的诸多优势,有效降低云计算的性能损失,释放 CPU 算力,降 低功耗的同时大大减少云数据中心的运营成本。按照英伟达的说法,一个 DPU 顶 125 个 CPU 的网络处理能力。   

 

 

3.2.4.3 收购Mellanox

英伟达并购 Mellanox 后,充分挖掘了其掌握的 InfiniBand 技术,使网络交换速度 得到保证。2019 年,英伟达以 69 亿美元并购了 Mellanox,后者以 InfiniBand 技术见长。 

InfiniBand 和以太网是超算领域较常用的互联和协议,以太网设计的初衷是解决各种各样设备之间的连接问题,其核心是通用性强;

InfiniBand 的设计初衷是解决同一个系 统中不同设备之间的连接问题,其核心是为了让通讯更快

举例来说,以太网像是快递中转站,它需要尽可能识别所有的包裹并将其送到各种各样的目的地,其主要精力需要 放在数据处理上,信息的传递效率相对较低;

而 InfiniBand 更像是地铁系统,轨道都是 确定好的且目标车站数量有限,因此不同站点间信息获取速度就会很快。对于高性能超 级计算机来说,为了提高数据交换速度,一般会采用 InfiniBand 技术。

英伟达在得到 InfiniBand 技术后,开发出了 NVIDIA Mellanox InfiniBand 交换器系统,每个端口的速 度可达 400Gb/s(以太网的速度通常在 0.1~25 Gb/s),这让运算丛集和聚合数据中心能在任何规模中运作,并同时降低营运成本和基础架构的复杂性。   

 

 

// 3.3 自动驾驶业务

3.3.1 NVIDIADRIVE产品

1、DRIVE Hyperion(自动驾驶汽车开发平台)

2、DRIVE SDK(构建部署自动驾 驶功能的模块化开放式平台,包括高度自动化监督驾驶“DRIVE AV”和 AI 驾驶 舱“DRIVE IX”)

3、DRIVE Sim(为开发自动驾驶提供模拟场景的仿真平台

4、 NVIDIA DGX(DNN 训练平台)。

 

除了传统汽车芯片业务外,公司后续也加大了在汽车软件平台及开发链工具的领域中的产品布局。     

3.3.2 业务主要收入方式

在手订单

超过110亿美元,预计2023-2024年开始规模转化为收入。2022GTC 大会上,公司透露汽车业务在手订单为 110 亿美元(同比增长 37%)。未来高级别智能汽车渗透率的提升,有望带动自动驾驶芯片出货量的提升。

 

软件产品订阅

长期持续稳定的收入来源。除了面向整车厂、Tier1 厂商提供芯 片及相应的软件解决方案之外,英伟达亦通过和整车厂合作的模式,通过提供自 动驾驶等软件服务的方式,获得持续的软件订阅分成,目前已签订合作意向的厂 商包括梅赛德斯奔驰、路虎&捷豹等。     

 

 

4.行业分析

// 4.1 行业基础

4.1.1 GPU 简介

核心的并行结构 GPU 比少核心串行结构的 CPU 更适合处理图形图像(矩阵结 构)信息。

CPU(Central Processing Unit,中央处理器)的功能主要是解释计算机指令以 及处理计算机软件中的数据,是计算机的核心大脑,可以处理计算机遇到的所有指令。 

GPU(Graphics Processing Unit,图形处理器)是图形计算的重要元件, 主要用来处理 与与图形图像相关的数据,在高端 PC 中通常会有独立 GPU,以获得更好的视觉体验。

他们二者的区别主要是,CPU 通常有 4 个、8 个或 16 个强力 ALU 核心(arithmetic logic unit,算术逻辑单元),适合做复杂的通用串行任务;而 GPU 可能有数千个简单 ALU 核 心,适合做简单特定的并行任务。

 

我们通过以下的例子来说明 CPU 和 GPU 的差异:

1、CPU 就像一个大学生,可以进行微积分等复杂计算,但若要在短时间内完成几万道加减算数 问题,也是很难办得到的;

2、GPU 就像几百个小学生,虽然都不会微积分等复杂计算 的能力,但人数多,可以在很短时间内完成几万道加减算数问题。

总而言之,对于复杂的单个计算任务来说, CPU 的执行效率更高,通用性更强;而对于图形图像这种矩阵式多像素点的简单计算,更适合用 GPU 来处理,但通用性较弱。       

   

值得一提的是,市场上还存在着比 GPU 专用程度更高的芯片,包括:

1.FPGA(Field- programmable gate array,可编程逻辑阵列)

2.针对某一类 AI 计算的 ASIC(Application- specific integrated circuit,特定场景芯片)

3.谷歌推出的 TPU(张量计算单元)

4.特斯拉推出的 NPU(神经网络计算单元)

虽然在某些特定计算上效率更高,但目前这些 芯片的使用场景比较单一,市场规模还较小。

  

4.1.2 GPU 的并行计算对AI领域的运算优势

AI 算法多为并行结构。AI 领域中用于图像识别的深度学习、用于决策和推理的机器学习以及超级计算都需要大规模的并行计算,更适合采用 GPU 架构。我们以深度学习中的神经网络算法来举例说明 GPU 架构的优势。

神经网络是一种模拟人脑的以期能够实现人工智能的机器学习技术,适合采用并行 计算的 GPU 架构。一个经典的神经网络分为输入层、隐藏层和输出层,通常隐藏层的数量越多,神经网络模拟的结果越精确,但相应的计算量会呈指数的增长。

最初人们使 用 CPU 来模拟多层神经网络需要很长时间;随后科学家认为,输入层到输出层的计算 关系是矩阵形式,与 GPU 对图像像素处理的架构类似,都是并行计算为主,因此产生 了使用 GPU 来进行神经网络计算的想法。2010 年时,Google 负责人工智能的吴恩达为 了训练神经网络来识别猫,最初使用了 16000 台计算机的 CPU 完成了训练,但为了搭 建庞大的 CPU 耗费巨大;随后他与英伟达公司探讨了这件事情,英伟达仅采用 12 个 GPU 就完成了训练,使人们看到了 GPU 对神经网络的优势。随着神经网络的复杂程度 逐渐提高,用 GPU 来训练神经网络成为了更优的选择。       

4.1.3 底层套件 CUDA

CUDA 主要由开发库、运行环境和驱动三部分组成,CUDA 架构的出现大幅降低了开发者的开发难度和时间损耗,目前该软件库仅支持英伟达 GPU 显卡。

其中,英伟达 CUDA 开发库可大幅降低开发者的开发难度;CUDA 运行环境提供了各项开发接口和运行期组件, 方便开发者调用各类资源接口,进而匹配各种类型计算;CUDA 驱动可理解为 CUDA-Enable 的 GPU 设备抽象层,目前仅支持英伟达 GPU 显卡。     

 

CUDA 基于可扩展的编程模型,使得英伟达 GPU 可满足不同应用场景下的算力需求。从 CUDA 可扩展的编程模型构成来看,CUDA 通过“线程组层次结构+共享内存+屏障同 步”,可帮助程序员将计算问题划分为可以由线程块并行独立解决的粗略子问题,并将每 个子问题划分为可以由块内所有线程并行协作解决的更精细的部分。

这种分解问题的方法,允许线程在解决每个子问题时进行协作来保留语言表达能力,同时实现自动可扩展性。通 过 CUDA 的上述技术,GPU 架构通过简单地扩展多处理器和内存分区的数量来跨越广泛的市场范围:从高性能发烧友 GeForce GPU 和专业的 Quadro 和 Tesla 计算产品到各 种廉价的主流 GeForce GPU,进而满足不同场景下的算力需求。        

 

// 4.2 行业规模

4.2.1 消费者(游戏)市场

据 Newzoo 2021 年 3 月发布的报告预测,2023 年全球云游戏市场收入可 能达到 51 亿美元。但目前主要受限于网络延迟以及服务器延迟等方面,市场尚处于初 期阶段。除英伟达外,目前还有微软、谷歌、索尼、腾讯以及网易等也在拓展云游戏业 务。       

4.2.2 自动驾驶细分领域市场

汽车市场正在经历快速的变革期,电动化是汽车升级的上半场,智能化是汽车升级的下半场。智能化将会迎来快速发展期,主要源于以下几个方面:

1、半导体技术的提升与成本的下降:随着半导体制造商向汽车领域逐渐发展,规 模化生产有利于成本的降低,从而推动销量扩大形成正反馈,汽车半导体有望 复制手机半导体领域的发展规模和速度;

2、电动化的不断普及加速了智能化:电动车的电机电控特性,相较于燃油车更有 助于智能化的控制系统发展;

3、对安全性便捷性和高效出行的要求:为了提升车辆差异化的竞争力,汽车厂商 将继续增加在驾驶辅助系统 ADAS 方面的投入,提升自动避险刹车、自动泊 车、道路领航等能力,以提升车辆的安全性与便捷性;随着自动驾驶能力的不 断提高,自动驾驶将有效缓解交通拥堵,大大提高出行的效率。

预计拥有智能化功能的车辆将从 2020 年的 2773 万辆增长到 2025 年的 6332 万辆。据 IDC 报告,2020 年售出的汽车中,拥有自动驾驶(辅助)功能的汽车数量(包 含 L1~5 级)为 2773.2 万辆,其中 L1 为 1874 万辆,L2 为 896 万辆,L3+为 3.2 万辆。 

我们根据市场智能化趋势以及前几年的增速为基础进行测算,到 2025 年,拥有自动驾 驶(辅助)功能的汽车数量(包含 L1~5 级)为 6332 万辆,其中 L1 为 3900 万辆,L2 为 2320 万辆,L3+为 112 万辆;2020~2025 的 CAGR 为 17.8%。 

  

到 2025 年时,与单车自动驾驶相关的革新性部件,其市场总额可达 781 亿美元, 2020~2025CAGR 可达 35.8%。巨大的市场增量使得相关公司都希望能够乘着智能化升 级的东风扩大公司业务,占领市场空间。我们将与自动驾驶有关的市场进行拆分,主要 有八个模块,其中与人工智能息息相关的决策软件、AI 芯片以及传感器(摄像头、激光雷达、高精地图、毫米波雷达)的发展空间更大。

     

   

汽车领域的 AI 芯片市场规模将从 2020 年的 25 亿 美元增长到 2025 年的 105 亿美元,2020~2025 的 CAGR 达 44%。       

   

// 4.3 行业参与者

4.3.1 自动驾驶平台芯片对比

目前芯片的解决方案主要有为:

1、提供软硬件整套解决方案

2、传统汽车电子厂商转型

3、平台化芯片以

4、整车厂自研四种模式。

 

特斯拉可类比为手机界的苹果,核心的 AI 芯片以及相应的算法均自研,但由于芯片设计等要求非常高,不仅需要投入大量时间、资金,还需要有相应的技术人才支撑, 对于大多数整车厂来说很难实现;

Mobileye 以自研算法起家,早期与意法半导体合作研 发芯片,后来被 Intel 收购后,形成了软硬件一体化的能力,因此 Mobileye 是以整套解决方案的模式向整车厂兜售,其优点是可靠性强且整车厂使用方便,但缺点是整车厂获得的是封闭的算法系统,无法自研算法,因此被特斯拉、小鹏、蔚来等希望掌握算法能力的整车厂所弃用;

平台化芯片以英伟达为代表,目前市场上还有高通、地平线、华为等厂商,这个方案的思路是提供平台化芯片以及算法开发工具链(包括示例算 法),整车厂可根据自身软件研发能力自行选择从哪个层面开始进行软件/算法的研发, 自由度较大,因此受到了以小鹏、蔚来、理想、百度、小马智行以及 AutoX 为代表的整车厂和科技公司的欢迎,类比来看,平台化芯片类似于智能手机领域的高通和联发科,市场空间较一体化自研的苹果大。

 

4.3.2 平台化芯片与整体解决方案对比

英伟达汽车业务目前仍落后于 Mobileye。截至到 2021 年 7 月,在车载汽车芯片市 场,按营收来看,只有 Mobileye 和英伟达两大巨头,两者的营业收入可占整个市场收入 的 90%。

Mobileye 以整体解决方案的形式较早占领市场,英伟达以平台化芯片形式逐渐 获得了希望自研自动驾驶算法的客户的青睐。从营收来看,英伟达在 FY2021 Q3(公历 2020 年 8~10 月)以来收入增长较慢,与 Mobileye 差距拉大,主要与英伟达客户多为新 势力车厂,受新冠疫情影响其需求波动性较大导致。但从长期来看,希望算法自研的整 车厂会越来越多,英伟达的平台化模式的优势会逐渐显露出来。       

自动驾驶的决策算法是自动驾驶的核心竞争力,能够进行算法自研的英伟达平台化芯片更受欢迎。在家用车领域,沃尔沃、奔驰以及中国的造车新势力蔚来、小鹏与理想 和传统整车厂上汽集团都选择和英伟达合作,推动汽车的智能化。值得一提的是,造车 新势力早期版本的车辆都采用了 Mobileye 的芯片,但由于无法自研算法,于是都转向了英伟达。

 

5.风险因素

1、市场竞争持续加剧风险。英特尔、AMD 在游戏显卡市场,云计算巨头在数据中心市场不断推出新产品,从而导致公司面临市场竞争格局不断加剧风险。     

2、AI 进展不及预期风险。大模型快速发展为近年来推动数据中心市场 AI 算力不断增 长的核心驱动力,若后续 AI 模型演进速度放缓,亦可能导致市场对公司用于数据中心的 GPU 需求量明显降低。 

3、全球地缘政治冲突、宏观经济下行风险。当前俄乌冲突、高通胀等宏观因素,亦 可能导致全球经济面临不确定性,并相应降低下游消费者、企业用户的支出意愿。

4、利率持续&快速上行风险。短期公司相对偏高的估值,亦可能面临利率上行带来的 估值持续收缩风险。       

6.引用资料

1、【英伟达:2022年必须要了解的一家公司】 网页链接

2、东吴证券(香港)-英伟达-NVDA.US-从硬件GPU设计到软件CUDA+ Omniverse开发,建立人工智能和元宇宙生态系统-220527 

3、中信证券-英伟达-NVDA.US-深度跟踪报告:软件业务,英伟达长期护城河、成长性核心来源-220407

雪球转发:0回复:0喜欢:3