电子行业AI算力供应链系列报告:大模型时代AI服务器需求提升,算力市场打开长线空间

发布于: 雪球转发:2回复:0喜欢:1

本篇报告详细分析了AI大模型发展背后对于算力需求的增长逻辑,给出了进行大模型训练和推理阶段算力芯片需求量的测算原理,从服务器拆分的角度针对AI服务器的发展趋势进行了解读,结合对英伟达商业布局的分析,建议关注AI服务器等算力硬件产业链相关标的。

  AI大模型通常伴随着计算量和模型数量同步增长,全球算力需求数倍增长。AI模型的研究和应用主要分为训练和推理过程,从GPT-1的1.17亿参数量到GPT-3的1750亿参数量深刻展示了大模型发展过程中算力需求的快速增长。我们认为出于商业竞争和国家地区数据安全等角度考虑,未来全球各大互联网公司和各个国家地区都将逐步发展自己的AI大模型。GPT-3训练阶段1天内完成至少需要3万颗以上的A100芯片,未来5年AI大模型训练端和推理端GPU芯片市场规模望超1000万元,AI服务器市场规模超2000亿元。

  数据中心是未来智算基础保障,AI服务器作为核心设施成长空间可观。服务器占数据中心购置成本的70%,未来AI算力需求增多的背景下会对数据中心产生更多需求。当前全球服务器的年度出货量级约在1300万台左右,预计2022年AI服务器占1%,同时考虑到采用GPU服务器的数据中心购置成本将显著低于纯CPU方案的数据中心,预计未来AI服务器出货量增速将高于行业整体,占比亦将逐步提升。从通用服务器到AI服务器,一个最显著的变化就是GPU取代了CPU成为整机最核心的运算单元以及价值量占比最大的部分,传统服务器通常至多配备4个CPU+相应内存和硬盘,在AI服务器中,通常是2颗CPU+8颗GPU,部分高配4U服务器中甚至可以搭配16颗GPU,预计AI服务器中GPU+CPU+存储的价值量占比有望达到80%以上的水平。

  AI研究与软硬件生态息息相关,英伟达多层次全面布局提供综合解决方案。英伟达围绕数据中心业务提供GPU/CPU/DPU/DGX系统硬件支持,并提供多种加速库与云服务,最新一代大模型芯片为H100 GPU,并提供擅长单线程和内存处理的Grace CPU与释放CPU资源的BlueField DPU加速计算单元,DGX系统可用于构建AI超级计算机。软件方面推出多种加速库与DGXCloud、AIFoundations,可帮企业与科学研究实现加速计算,为全球云服务商提供AI技术及定制LLM和生成式AI,CUDA架构深度适配PyTorch等多种深度学习框架,协助英伟达打造全球用户对于英伟达产品体系的深度粘性。

  投资建议:随着AI大模型的发展和应用推广,算力需求将与日俱增,数据中心或将成为未来核心竞争力保障之一,服务器作为数据中心的核心设备未来亦有望受益于算力需求的增长浪潮。考虑到未来AI服务器整体出货量占比有望逐步提升,建议关注服务器硬件层面所涉及到的GPU、CPU、存储、PCB/IC载板、连接器及线缆、散热、电源、模拟芯片、接口类芯片、RAID卡、功率器件等零部件(详细产业链标的梳理参见正文投资建议),同时考虑到GPU作为未来AI服务器的算力核心以及是价值量占比最大的部分,建议关注国际GPU龙头英伟达及其产业链标的,同时关注寒武纪海光信息景嘉微等国内布局GPU等核心算力芯片产品的厂商。

  风险提示:下游需求不及预期的风险、行业竞争加剧的风险、宏观政策和国际形势变化的风险、技术路径变化的风险、供应链受限的风险

研报原文件请看:网页链接