这文章有理有据,比某些只会吹所谓的逻辑强很多
这22.5万片里,英伟达已经预定7.5万片,同时还在考虑积极加单。按1片晶圆切割30颗大卡(H100)测算,对应明年的出货量在260-270万颗左右(A100切的多一些)。
而AMD预计明年出货在25万颗左右(MI300主要选择怼更多内核,所以卡的面积更大,单片只有20颗+),目前已经导入微软、HP和AWS。
有了这个基础后,自上而下的方式,通过简单的除法,可以很快得出AI服务器、HBM、光模块、存储、交换机PCB等硬件的计算器。
(1)AI服务器 & 板卡
AI服务器的计算器最为简单,直接按照算力卡出货量除以8即可,上面算一共有300万颗左右,考虑库存和后续还有的增量,市场一致预期2024年AI服务器出货量在40-50万台,其中H100服务器的占比会到70-80%。服务器代工的计算器也就有了。(目前AI服务器代工的毛利率在15%附近,H100服务器售价25万美元)
板卡的数量直接和A/H出货量挂钩(1:1),目前A100板卡工业富联份额75%,H100板卡份额85%,二供是TW厂商英业达,刚导入不久,最近走势如下:
工业富联无法长期保持独供地位是市场共识,这类制造业一定会培养二三供,从英业达的走势看,该份额变动也已是市场共识,所以无需过分解读。
(2)HBM
HBM讲过太多次了,由于内存墙的问题,增速快于算力卡,主要体现在:
同代增量:H100的HBM用量为768G,而MI300X则升级至1.5TB
迭代增量:A100使用3-6颗HBM,H100增加到6-8颗HBM
涨价逻辑:由于产能短缺,HBM目前供不应求
按照上面A/H的出货总量及比例关系,HBM目前依然没有明确的计算器,因为AMD的份额多少不确定,价格能涨到多少不确定(目前为12-13美元/GB),任意假设的细微变动都会导致三者乘积的结果变化极大。
(3)光模块
光模块的情况会相对复杂一些,A100、H100、GH200的比例不同,还会进一步分为400G、800G、单模、多模,目前一套400G网络(光模块+光纤网卡)价格在1500刀/组,1卡配一组,800G会更贵。
光模块市场研究地比较透了,行业层面,2024年800G光模块的出货量一致预期落在1000-1200万支(单模+多模)。个别公司会存在导入节奏上的区别(对应彼此份额的区别)。
(4)存储
DRAM(内存条):32条,单条180美元
NAND(SSD):20根,单根50美元
AI目前占存储下游的比重还比较小,仅仅个位数水平,明年能到两位数,也算不小的提振。
(5)交换机 & PCB
交换机的量直接和光模块呈正相关的关系,英伟达目前已经推出Quantum-2 QM9700系列,总的数据吞吐量高达51.2T/s:
NVswtich和QM9700与A股能扯上关系的主要还是PCB。
PCB:单卡的载板已经算到H100的价格内,而服务器大板子的价值量在1800美元,根据上面的比例关系能够进一步拆出交换机对PCB的增量。
2. 预期差汇总
【周期合伙人】
年中梳理
老周 您看服务器和HBM哪块预期差更大
周大,这里的载板是哪个类型的载板呢
液冷等不能分析一下
光模块明年那个 1000 1200有点夸张吧,我觉得有一半就不错了,毕竟只是说就算下了单也可以撤单的 但是能保持一定的复合增速就行了
周大 封测可以直接利好后道设备长川吗?
设备股不是上游吗?没设备怎么扩产?怎么造芯片,结果现在成了狗不理了
pcb都看不懂了,我看东山精密,鹏鼎控股这些pcb厂商今年都是收阴的,难道他们做不了吗
老师。弘信预期大吗
预计今年三季度的服务器和光模块能体现出业绩不?