按照老王的说法,新产品在算力大幅增加的情况下成本大幅降低,理解上刺激更多的应用和达模型,数据中心扩张,光模块还是会增加,最近观察美股的应用端大票是否能走强,英伟达肯定不能跌,跌了所有的逻辑都不成立,但是应用端可能涨得更好
发布GB200(主推):
1)配比上采用1CPU 2GPU,单个机柜内部可容纳72个GPU;
2)互联模式采用NVSWTICH(NVSWITCH:采用台积电4nm工艺,72端口(双向200G serdes),NVLINK带宽达到1.8TB),GPU和NVSWITCH之间采用铜互联,同时搭配IB交换机进行网路互联;
3)针对单颗GPU,采用192GB HBM3e,8TB内存带宽配比关系:若采用1.6t光模块,预计比例提升1:9。单卡双向传输带宽达到1800GB,单向对应900GB,若采用1.6t光模块传输 2层网络结构,则对应光模块使用数量为(900GB*8/1600GB)*2=9个,考虑到英伟达当前主推GB200,预计有望带动1.6t光模块加速放量,重点推荐【中际旭创】、【新易盛】、【天孚通信】
相较于GH200,GB200性能全面提升,尤其在推理端性能提升明显,对于GPT万亿模型参数,在FP4计算格式上,GB200的效果是H100的约30X。目前GB200的生态合作伙伴不断扩大,包括AWS、谷歌、微软、甲骨文等,相较于GH200,GB200有望大幅放量,推动光模块配比关系大幅提升!
按照老王的说法,新产品在算力大幅增加的情况下成本大幅降低,理解上刺激更多的应用和达模型,数据中心扩张,光模块还是会增加,最近观察美股的应用端大票是否能走强,英伟达肯定不能跌,跌了所有的逻辑都不成立,但是应用端可能涨得更好
这是特意搞了个小号?
还有算单P算力下,光模块单位用量少了,这种算法都是纸上谈兵。你就算未来出多少台服务器,每台服务器用多少1.6T和800G,这个才是产业的算法。
科技的进步肯定是要单P算力成本越来越低的,连英伟达GPU都是如此,何况光模块?但是用量越来越大了,行业竞争格局越来越集中了,这才是产业的算法,OK?
看看光迅的公告
转