新的能源危机:AI发展太快,电不够用了?(能源Time)

发布于: iPhone转发:1回复:0喜欢:0

上个月在瑞士达沃斯世界经济论坛年会上,OpenAI首席执行官萨姆·奥特曼表示:人工智能行业正在走向能源危机。奥特曼警告说,下一波生成式人工智能系统将消耗比预期更多的能源,而能源系统将难以应对。

无独有偶,在博世全球互联会议上进行的电话问答环节中,最近被提名为诺贝尔和平奖候选人的埃隆·马斯克表示:“芯片短缺可能已经过去了,但人工智能和电动汽车的迅速扩张将导致明年电力和变压器供应出现紧缺。”

马斯克强调了人工智能计算量的指数级增长,“每六个月似乎增加了10倍,尽管这种高速增长显然无法永远持续下去,否则将超过宇宙的质量,“我从未见过任何技术的发展速度比这更快。”埃隆·马斯克表示。

两个人其实说了一个意思,人工智能发展得太快,电不够用了。

生成式人工智能模型离不开芯片的算力支持。进入三月份,英伟达市值一夜涨超2600亿元,市值超2万亿,从侧面印证了AI发展对算力的高需求。

黄仁勋称,对 AI 所依赖的计算能力的需求仍然是极其巨大的,“全球范围内,企业、行业和各国的需求都在激增。”据悉,英伟达的业绩爆发得益于数据中心业务的增长,特别是生成式人工智慧和语言模型的训练和推理的推动。

作为整个ai大潮的算力基础,英伟达的A100和H100GPU去年曾一芯难求,专业人士表示:训练一个类似于GPT—3.5左右的大语言模型大概需要1万张A100芯片,硬件投入就需要20亿元。

算力的运行和生产往往离不开电力,据微软数据中心技术的预测,到2024年底,全球部署的百万量级的H100 GPU将使得英伟达的总耗电量超过亚利桑那州凤凰城的所有家庭用电量,仅次于德克萨斯州休斯敦。

H100 GPU的最大功耗达到700W,以利用率61%计算,每颗GPU每年将消耗约3,740kWh的电力。到2024年底,全球范围内将有350万个H100 GPU投入使用,它们每年将消耗总计13,091.82 GWh的电力。这一天文数字相当于立陶宛等国家的全年耗电量。

不能忽略的是,电力消耗又与碳排放息息相关,可是之前,AI行业的环境和碳排放成本被科技公司淡化和否认。

奥特曼和马斯克两位科技领袖的呐喊不仅揭示了AI行业的能源危机,也引发了全球研究人员、监管机构和行业巨头们对生成式人工智能环境影响的大讨论。

2月1日,马萨诸塞州参议员爱德华·马基领导的美国民主党人提交了《2024年人工智能环境影响法案》。该法案要求美国国家标准与技术研究所与学术界、行业和公民社会合作制定评估人工智能环境影响的标准,预示着对AI行业的环境监管已经箭在弦上。

AI的另一面

大语言模型的开发是一场疯狂的烧钱游戏,纵观人工智能行业的产业链,从基础层的硬件、数据输入计算,到技术层的算法模型开发,再到应用层的商业化落地都需要大量的资金、人力投入。

为了获得更优的智能表现,语言模型逐渐朝着大型化方向发展,投喂的学习数据呈指数级增长,参数也越来越多:GPT-3.5 训练参数为1750亿,GPT-4为1.8 万亿,亚马逊发布的全新大模型Olympus参数高达2万亿,训练和调试的能源损耗将不断攀升。

简单而言,AI越智能,耗能就越多。

例如,来自《焦耳》杂志上的一项研究表明,到2027年,生成式人工智能所消耗的能源能为荷兰大小的国家提供一年的电力,相当于约85-134太瓦时(TWh)。参数更多、功能更为强大的人工智能将给人类的能源供应产生巨大压力。

这意味着在几年内,大型人工智能系统需要的能源量可能将达到整个国家的用能水平,要实现向全面智能时代过渡,甚至建成元宇宙,能源消耗不可估量。

近期发表在《自然》杂志上的一篇文章指出,由生成式人工智能驱动的搜索所消耗的能源是传统网络搜索的四到五倍,OpenAI在加利福尼亚州旧金山创建的聊天机器人ChatGPT已经消耗了33,000个家庭的能源。

$罗博特科(SZ300757)$ $东方日升(SZ300118)$ $泉为科技(SZ300716)$