发布于: Android转发:0回复:1喜欢:1
回复@梁宏: 你没考虑技术进步会让能耗指数级降低,就像最初的电子管计算机和现在的大规模集成电路的计算机//@梁宏:回复@梁宏:我说的是长期,长期是5-10年级别的。
我计算过a100,h100以及未来b100更大的能耗,以及对应散热系统能耗。
如果国内芯片出来那能耗会更大。
另外在非ai时代,仅仅数据存储为主的数据中心每年耗电增速和耗电占比数据放在那里。那么ai时代能耗是几何式上升的。现在因为占比不大,所以短期肯定没问题。我说的长期肯定至少5年后,或者更久,那取决于ai技术和商用的发展速度。到时候电耗的确会是瓶颈。马斯克好像说的是明年缺电。我自己计算结论这是长期的问题,不是这几年的问题
引用:
2024-03-04 11:53
我的想法,ai短期瓶颈在算力芯片,长期瓶颈在电力(能源)

全部讨论

03-04 19:20

其实要考虑个问题 到底是AI能量消耗大 还是人脑消耗能量大