发布于: Android转发:0回复:2喜欢:0
转:【AI,算力,能源,白银】英伟达的H 100 GPU芯片,每颗功率700瓦,一小时耗电0.7度,一年按61%的使用时间计算,全年将耗电3740度。
今年底全球仅英伟达H100这一款GPU芯片就会部署350万个,按全年只使用61%的时间来计算,将耗能130亿度,其他型号的AI芯片还不算在内。这个能耗在目前全球年产26万亿度总电量中的比重还不算大,大约是万分之五左右。
黄仁勋说过去10年AI的算力增加了100万倍,未来10年他认为还会增加100万倍。这可能过度夸张。如果比较保守地按照Open AI总裁山姆.奥特曼的估计, AI算力增长跟摩尔定律差不多,也就是每10年增加100倍。未来20年会增加1万倍,那么它对能量的需求也会增加1万倍(为计算简单,假设芯片的能耗与现在一样) 。那么到2050年,全球人工智能的耗电量至少需要130万亿度。
2023年全球发电量总共大约是26万亿度。到2050年,除人工智能之外的人类用电量应该达到至少30万亿度。再加上人工智能所需的130万亿度, 全球总发电量至少需要达到160万亿度。
相信到2050年,中国人工智能的算力应该跟美国并驾齐驱,那耗电量至少也应该是130万亿度,这两项加起来就是290万亿度,比2023年全球发电总量高出10倍还多。
显然世界将遭遇AI算力导致的能源危机!要么是AI算力降低发展速度,要么就是能源高速扩大产能,能源价格长期上涨将是大趋势。

全部讨论

03-06 14:47

嗯 请按时吃药

假设不成立,卡的效率提高,总电量不变