发布于: 雪球转发:0回复:0喜欢:0
据《纽约客》杂志报道,OpenAI的热门聊天机器人ChatGPT每天可能要消耗超过50万千瓦时的电力,以响应用户的约2亿个请求。相比之下,美国家庭平均每天使用约29千瓦时电力,也就是说,ChatGPT每天用电量是家庭用电量的1.7万多倍。如果生成式AI被进一步采用,耗电量可能会更多。荷兰国家银行数据科学家亚历克斯·德弗里斯在一篇论文中估计,到2027年,整个人工智能行业每年将消耗85至134太瓦时(1太瓦时=10亿千瓦时)的电力。
引用:
2024-03-10 17:41
黄仁勋:未来10年算力将再提高100万倍。
未来10年算力提高100万倍,若算力单位耗能不变的话,光美国数据中心耗电量就约等于现在全球发电量的3429倍。
超级AI将成为电力需求的无底洞。
萨姆·奥尔特曼指出:在未来,算力和能源将成为两种关键的“货币”,它们之间可以相互转化。
近...