发布于: 雪球转发:0回复:0喜欢:1
大集群套小集群的理解。如果学过计算机的人,可以把他理解成层次化的Memory,DRAM->L3 cache ->L2 cache -> L1 cache。搞这么多,是因为算法有局部性的特征,通过小集群,收获这部分增益。
引用:
2024-03-19 20:15
昨天Nvidia GTC发布会,老黄重磅推出GB200新产品,号称72个GPU直接通过铜缆互联,组成一个集群Giant GPU,提升了30倍的性能。A股早上开盘吓尿了,中际旭创、新易盛、天孚通信这三家直接低开。那么,GB200是否真的会降低光模块的需求吗?
AI算力集群
将大量GPU芯片联在一起,组成一张大规模...