发布于: Android转发:2回复:1喜欢:2
光模块持续跟踪:
英伟达发布超级AI服务器DGX GH200,硬件增量拆分小计:
29日,英伟达在台北发布新一代超级AI服务器DGX GH200,我们初步统计了相关的硬件增量。从目前的规格上看,DGX GH200主控是基于ARM架构的72核 Grace CPU,而非传统X86CPU。同时采用了一种新的 NVLink Switch 系统,包含 36 个 NVLink 开关,将 256 个 GH200 Grace Hopper 芯片和 144TB 的共享内存连接成一个单元。还设计了比竞争对手高出 5 倍的互连功耗效率和高达 128 TB / s 的对分带宽。该系统有 150 英里的光纤但是呈现出来就像一个单一的 GPU。英伟达表示,256 颗 Grace Hopper 超级芯片将 DGX GH200 的“AI 性能”提升到了一百万万亿次。
光模块仍是AI算力当中最闪亮的“星”
一、NVIDIA DGX GH200是将256个NVIDIA Grace Hopper超级芯片完全连接到单个GPU中的新型AI超级计算机,支持万亿参数AI大模型训练。能够处理大规模推荐系统、生成式人工智能和图形分析,并为巨型人工智能模型提供线性可扩展性。
二、这是小型算力集群,是特定场景的方案,不适用大场景大型数据中心。
三、从算力角度GH200内存是H100提升4倍,算力是H100的2倍,所以这部分带来800G光模块需求砍半。
四、从端口的角度,由于256个GPU还是用2层网络架构,GH200里面一个GPU对应16-18个800G光模块,假设一般用铜缆链接,一个GPU也对应8-9个800G光模块,相比原来的H100中一个GPU对应3-4个800G光模块,也有翻倍以上需求提升,所以相当于一个GPU对应8-18个。
五、总结来说这个GH200适用于部分特定场景,假设跟H100相比较的情况下,GH200算力提升角度对800G光模块需求砍半,但是端口角度需求变成原来的2.3-5.1倍,所以这部分特定场景的800G光模块需求是提升的,相当于原来的1.15-2.3倍。
Chatgpt引发全球人工智能军备竞赛,北美跑在前沿,也有钱,光模块是中国唯一直供北美的,最快最直接感受全球ai产业大发展。自3月以来,北美厂商已经四次追加800G,目前来看800G全年需求合计达到120万只以上,追加时间超市场预期,追加数量也超预期,反映全球人工智能军备竞赛如火如荼,明年800G需求继续猛增。
主要光模块公司:中际旭创天孚通信新易盛华工科技光迅科技太辰光剑桥科技联特科技
主要光芯片公司:源杰科技仕佳光子光库科技长光华芯永鼎股份等。
$中际旭创(SZ300308)$ $天孚通信(SZ300394)$ $光库科技(SZ300620)$ #算力概念股继续冲高,鸿博股份3连板#

全部讨论

2023-05-30 12:50

国内的厂家没法强行擦边,新的超算没有一个模块是国内供应的