英伟达市值逼近苹果,但投资AI芯片前你还需要知道这些

发布于: 雪球转发:0回复:3喜欢:1

#AI芯片# $英伟达(NVDA)$ $AMD(AMD)$ $微软(MSFT)$ 今年2月21日,英伟达又给出市场交出亮眼财报,推动其股价接连飙涨,至今已上涨26.03%,市值高达接近2.2万亿,请注意这还是美元。

相比英伟达带给全球的一点小小“AI震撼”,苹果则负面缠身,同期下跌-5.97%,市值来到2.6万亿美元,市值已被英伟达逼近。

一旦英伟达市值超越苹果(而这很有可能发生),微软和英伟达的市值将在山巅会师。

这背后的含义绝不仅仅是简单的公司排位变化,而是意味着一个千载难逢的机会,抓住它人生就有可能跃迁到一个新的层级。

大家好,我是胡说,今天我们来谈谈:英伟达市值逼近苹果意味着什么?

千万不要忽视生产力的变革

请朋友们先思考一个问题:从业务角度讲,微软英伟达苹果分别代表着什么?

问题的答案或许早已蕴藏在过往的历史中。

2007年1月9日,乔布斯在旧金山的麦克艾文中心发布第一代iPhone,没有键盘,手指滑动即可操作,直接引爆了延续至今的移动互联网浪潮。

过去十数年间,提起上述情景,人们总是称之为移动互联网的“iPhone时刻”。

十几年后,2022年11月30日OpenAI的ChatGPT横空出世,一经上线便引爆全球,成为史上用户增长速度最快的消费级应用程序,引爆了人工智能的浪潮。

此后,行业巨头相继入场布局,新模型层出不穷,已有的模型快速迭代,AI的发展再次成为全球的焦点。

或许,我们也可以说:由于ChatGPT的到来,当下正处于AI的“iPhone时刻”。

此时,再回看上面的问题,答案就呼之欲出了:英伟达微软苹果的最大区别就是分属于两个“iPhone时刻”。

作为移动互联网浪潮的代表,苹果公司取得了持续性的成长,股价也随着公司的成长大幅抬升,自2017年1月9日至今,涨幅超6倍。

微软英伟达作为新一代AI浪潮的代表,“一软一硬”,占据了AI最重要的生态位,公司取得市场青睐当然不奇怪了。

因此,英伟达市值逼近苹果的背后,意味着一个生产力变革的新时代到来。

而回顾历史,生产力的变革也将会给身处这个时代的我们带来无法想象的大机会。

2008年,加州大学戴维斯分校的经济史学家格里高利·克拉克在其《A Farewell to Alms 》一书中绘制了一张世界人均收入变化图。

人类进入第一次工业革命后,该图利用一根几乎垂直向上的曲线展现了人类社会的财富是如何在技术革命驱动下爆发增长的。

一旦出现新的生产力革命,人类的财富会呈几何级的增长,这也是会说科技是第一生产力的原因。

在这种财富爆发中,财富随着生产力,十倍、百倍、千倍地增长,也必然给我们带来十倍、百倍、千倍的投资机会。

即便你不投资,你所在的行业、公司、职位也必然会被这种新的生产力重塑、改变甚至消灭。

因此,千万不要忽视任何一次生产力的变革,如果想有所发展,还一定要积极拥抱这种变革。

当然,我们主要的焦点还是在如何利用这种生产力变革带来的投资机会上。

新的投资机会必定数不胜数,限于篇幅,今天我主要想谈谈AI芯片的投资机会。

深入认识AI芯片

我们之所以将目光聚焦于AI芯片上,除了篇幅原因外,还有确定性方面的考虑。

从应用层面来说,与互联网等以往技术变革不同,AI需要越过可用和好用的边界才能产生商业价值。

OpenAI近期发布的Sora所取得的进步表明AI视频生成已经越过这一边界,有望成为ChatGPT之后下一个杀手级AI应用。

而无论是应用出现之前的投资、还是应用出现之后的刺激,AI各环节最有确定性的当属算力。

Sora证明了“力大砖飞”的思路还未达到成果上限,因此持续投入算力仍是当下发展AI最清晰的路径,全球算力投资景气度预计会有比较好的持续性。

我在《7万亿美元!OpenAI疯狂计划意味着什么》一文中已经对这种持续性和确定性做了定性的介绍和定量的计算,本文将更进一步,介绍AI芯片的更多细节。

首先是AI芯片的进一步细分,AI芯片可以按照用途、部署位置进一步细分。

按用途,AI芯片可分为训练芯片和推理芯片,分别对应大模型的训练和推理阶段。

所谓训练,即是指通过大数据训练出一个复杂的大模型,通过大量数据的训练确定网络中权重和偏置的值,使其能够适应特定的功能。

该阶段需要训练芯片具有极高的计算性能、较高的计算精度、可同时处理海量的数据、一定的通用性、可处理不同的任务等。

推理是指利用训练好的大模型,在应用中针对新数据推理出各种结论。

用于该阶段的推理芯片对计算性能要求相对较低,更注重综合性能,如单位能耗算力、时延、成本等。

此外,AI芯片又可部署在云端、边缘端或终端,根据部署的位置,又可以将其分为云AI芯片、边缘AI芯片和端AI芯片。

由于大模型预训练阶段数据量极大,需要巨大的算力,单一芯片无法满足训练需求,需在云端采用大规模集群进行训练,所以训练需求由云端训练AI芯片完成。

与此同时,大模型的推理也需要大量的算力。

随着大模型提供的服务(如在线问答、图像识别、语音识别等)和接入的用户越来越多,云端推理服务对AI芯片的需求也在不断提升。

此外,相较于科研、重型产业等通过大模型、高密度AI计算满足需求的场景,便捷、低时延的应用场景愈发普遍,如自动驾驶、智慧安防、移动互联网等。

边缘侧及终端推理芯片可以独立完成数据收集、环节感知、人机交互及部分推理决策控制任务,进而满足了该类场景需求。

其次,训练芯片和推理芯片的需求在不同阶段各有侧重。

在初期的技术探索阶段,各巨头布局并投入算力资源训练大模型,因此在这一阶段,算力需求主要来自于模型训练,驱动的主要是训练芯片需求。

而后,伴随着AI应用逐步成熟,企业将把更多算力从模型训练转移到AI推理工作中。

同时,随着大模型应用进一步落地,推理需求也将进一步下沉,从云端逐步迁移到边缘/终端,这将催生许多细分场景下的推理需求。

最后,训练芯片和推理芯片的需求驱动模型并不完全相同。

缩放定律表明当参数规模增加、数据集规模增加并延长模型训练时间,大模型的性能就会提升,且如不受其他两个因素制约时,大模型性能与每个单独的因素都呈现幂律关系。

此外,OpenAI还指出,每个token的训练成本通常约为6N,其中N是大模型的参数数量,而每个token的推理成本通常约为2N。

同理,随着应用场景不断拓展,大模型应用的不断增多,算力需求也将不断提升。

因此,对于训练芯片,我们可以假设,训练算力需求=模型参数量*训练数据量*模型数量。

而在现阶段,模型训练语料相对稳定,主要变化的因子来自于模型参数量和模型数量。

以GPT-4为例计算,其训练数据集为13万亿个token,参数量为1.8万亿,其训练所需算力高达6*1.8e12*1.3e13=1.404e26FLOPS。

对推理算力需求则可以假设,推理算力需求=模型参数量*推理数据量*模型数量=模型参数量*(服务访问量*服务使用token/次)*模型数量。

以ChatGPT为例,据报道其2023年3月总访问量突破10亿次。

假定当前总访问量维持,且每次访问使用一段话(约100tokens), 则其日均需求为2*10e8/30*100*1.8e12=1.2e22FLOPS/天。

未来随着大模型应用的广泛应用,更多的场景用到推理需求,所需的推理算力将是惊人的。

AI芯片的投资逻辑

首先,由于需求驱动的阶段和模型差异,训练芯片和推理芯片也呈现出不同的特点。

前期在大模型的投入阶段,训练芯片将占据主导,此后随着应用的成熟、场景的下沉,推理芯片的市场占比将越来越高。

据艾瑞咨询数据,2022年中国的AI芯片市场规模约385亿元,其中AI训练芯片以及AI推理芯片的占比分别为47.2%和52.8%。

到2027年,中国AI芯片市场规模预计达2164亿元,其中训练芯片与推理芯片的比例将分别为23.7%与76.3%,推理芯片占比随AI模型的优化落地将不断提高。

IDC数据也类似,2020年中国数据中心用于推理的芯片的市场份额已经超过50%,预计到2025年,用于推理的工作负载的芯片将达到60.8%。

其次,不同于训练芯片需要通用性,推理芯片往往和已训练完的大模型高度绑定。

ASIC正是基于AI算法定制开发,随着大模型技术商业化应用落地,其性能高、低消耗的特点将在推理端进一步放大,有望在未来的AI芯片市场更具竞争力。

届时ASIC可能会与GPU产生竞争,产业格局可能将产生分化。

最后,至少在目前的格局下,无论是训练芯片还是推理芯片,英伟达都一家独大。

目光放在国内,华为仍牢牢占据AI芯片的第一梯队位置。

因此,从当下的投资来看,考虑到业绩的确定性或者说可兑现性,至少是逻辑的通顺性,在A股市场最好是围绕英伟达和华为这两家公司的配套进行选股。

温馨提示:本文仅是笔者思考内容的记录,仅供读者参考,不作为任何投资建议;投资有风险,入场需谨慎。

全部讨论

03-10 22:24

Asic这个您之前的文章有写到吗?准备过去学习下

03-10 22:19

好文章,围绕华为选择,这个方向非常准确