感谢从专业角度的回复,非常清晰透彻!开始能理解当前的方案皆因极短时间快速增长的需求而取舍,给产业界以时间,数据中心能做的事多多,未来会有更成熟的解。
另外我觉得液冷和气冷的解决方案也和铜和光的选择有些类似。Arista的Andy去年的OCP会上,花了大幅篇幅谈论cooling, 说到将来系统的大小和功能会取决于如何把芯片散热,液冷绝对是必经之路。但是现时还是能air cooling,不会用到液冷,成本、系统复杂度多会有考量。
上周四TSMC 在2024 North American Technology Symposium上也谈到了他们对于你概括的第一级和第二级的规划,增大芯片尺寸和支持光的CPO. 网页链接//@翻番:回复@菜农看股:你的问题关乎于数据中心规模化不同增长层级的二阶导。凡事都要tradeoff,做取舍。直观的说,现在的处境就是芯片内晶体管已经足够密了,制程虽还会提升,但越来越慢。为了进一步加速,计算之间还必须得越来越密越来越近才行,既然无法有效的在芯片内更近,那就芯片外更近。基于这个思路,实际上有两条线三个规模化层级:
第一个层级:以芯片尺寸划线,小于芯片尺寸的技术进步就交给台积电吧;
第二个层级:再以机柜划线,小于机柜尺度且大于芯片尺寸,对于英伟达就是NVL72,是nvlink所及的范围,对于AMD恐怕就是IF这个IP开放的范围,也正是我们讨论的重点,也是铜连接具备比较优势的区段;
第三个层级:大于机柜尺度,是更多GPU加速机柜通过IB/超以太的互联部分,当然也属于数据中心规模化的范畴里,光连接当然不会缺席。
个人认为机柜层级(也就是上述第二层级)规模化的强度和速度会快于其下和其上两个层级,所谓二阶导最大,因为在这一层级规模化效率最高。英伟达会往这个狭小空间里塞更多计算和存储,扩更大的连接,而在没有更好连接方案之前,铜连接是此前没有的增量。
注:作为近期小节,本文主旨大抵来源于雪球网友们讨论,并启发收束于一篇雄文(评论附链接)。
现实背景:chatgpt引爆gen-AI,LLM成为通向AGI的可能。越早摘得AGI果实的玩家获得越大奖励,军备竞赛开始。根据scaling law,玩家们无止境渴求加速计算算力。易得:
1、更大的角度上,持续而规...
感谢从专业角度的回复,非常清晰透彻!开始能理解当前的方案皆因极短时间快速增长的需求而取舍,给产业界以时间,数据中心能做的事多多,未来会有更成熟的解。