美国电网无法支撑AI需求?

发布于: 修改于: 雪球转发:0回复:8喜欢:3

$中际旭创(SZ300308)$

$英伟达(NVDA)$

前几天扎克伯格接受采访时也谈到了能源的限制问题,他提到:一个千兆瓦的规模,就如同一个有影响力的核电站,全部的能源只用来训练模型。

封面图是我用$昆仑万维(SZ300418)$ 的天工AI画的“一个吃电的怪物”。

以下是正文。

NVIDIA H100 GPU 是一款高性能的人工智能处理器,专为加速AI、HPC(高性能计算)和数据分析等任务而设计。根据提供的搜索结果,以下是关于H100芯片能耗的一些关键信息:
1. **峰值功耗**:每块H100的峰值功耗高达700瓦,这个数值超过了普通美国家庭的平均功耗。
2. **年均功耗预测**:根据微软数据中心技术治理和战略部门首席电气工程师保罗・楚诺克(Paul Churnock)的预测,如果按照61%的年利用率计算,每块H100每年将消耗约3740千瓦时(kWh)的电量。
3. **总耗电量**:如果英伟达在2023年售出150万块H100,2024年售出200万块,那么到2024年底,将有350万块H100芯片被部署。这些芯片的总年耗电量将达到130.91亿千瓦时,即13091.82吉瓦时(GWh)。

芯片外的能耗:

例如,H100 GPU的单个芯片的峰值功耗可高达700瓦。但

NVIDIA DGX H100系统配备了8个H100 GPU,其系统功耗最高为10.2千瓦(kW)。服务器最高功耗可以是8颗芯片总和的一倍以上(主要考虑cpu 存储 内存等)功耗。

还有数据中心的照明 制冷 安全等,按照传统映射关系,服务器能耗10%是数据中心运营能耗。

那实际h100 所有340颗芯片对应的服务器交货后,对应的总消耗13047*2*1.1=28703亿度电。

4. 比较

2021年美国全社会发电量:达到了41155.4亿千瓦时,同比增长2.7%。

2021年美国全社会用电量:消耗了37945.39亿度电,同比增长2.1%。

居民用电量:在2021年,美国居民部门消耗了14765.69亿度电,约占全社会用电量的38.91%。

商业部门用电量:商业部门用电量为13247.82亿度,约占美国用电总量的34.91%。

工业部门用电量:工业部门用电量为9867.97亿度,占比约26%。

h100单芯片耗电量一年消耗。1 GWh = 1亿度电。假设这些芯片有1/10在美国数据中心,美国数据中心占比全球1/10的话,就是2024年2870亿度电,占比全美电力使用总和的7.5%。这个数据太庞大了。美国总用电量一年才2-3%增长。

此外,B100,GB200同样计算方式,英伟达2025年底预计还要增加B系列,B100 B200 GB200,合计350w颗以上。GB200 100w颗左右,目前它给的数据 2000颗gpu(双die),4兆瓦,单颗GB200,算2000w(封成服务器后平摊下来的)。

毛估计算b200是1000w。假设全部换算成350w颗b200功耗,那25年底美国总电力需求针对b系列还要加10.7%。这个缺口肯定很大!

全部讨论

04-28 13:14

这个完全没有考虑英伟达迭代带来的单位算力能耗下降。不是发展的眼光看待问题

可否换成23年的数据再比较更准确一些,谢谢!

04-28 12:56

感紧买铜

定量分析 ai 能耗

04-28 14:35

安费诺VS立讯
能耗节能方面立讯占优势
性价比方面立讯占绝对优势
如果要起量,英伟达迟早要和立讯强强联合。
中国移动也刚刚宣布要和立讯精密联合打造AI项目
看了立讯刚发出的会议纪要,决定继续定投。
低于30只进不出,长期持有(没办法被套了)
另外,苹果AI手机即将推出。许多算法基于智能终端,这样就让普通用户可以更加友好使用。
$立讯精密(SZ002475)$ $工业富联(SH601138)$ $英伟达(NVDA)$

04-28 13:52

来买我们的光伏吧