新能源消纳的终点是AIGC

发布于: 雪球转发:0回复:1喜欢:0

这一波AI的热潮源于大模型的突破,本质在于“大力出奇迹”。巨量模型参数在海量算力的加持下使得AI体现出“涌现”的特征。海量算力则意味着需要大量电力作为支撑。

根据 The Verge报道,训练GPT3大模型需要130万度电,之后更大的GPT3.5/GPT4模型需要大得多的耗电量。而根据纽约客杂志报道,因为ChatGPT的全球用户每天都会发送2亿个访问请求,所以OpenAI的ChatGPT每天可能要消耗超50万度的电力,一年要消耗1.83亿度电。1.83亿度电这是什么概念?约等于1.7万个普通家庭一年的用电量。

现阶段大模型的诞生极大地降低了创作门槛,AIGC内容也会泛滥于网络,这背后则是大量的电力消耗。

大模型训练完成后,生成文字、图片和视频也需要消耗大量的电力。根据 The Verge报道,AI每生成一张图像,所消耗的 能量几乎与为智能手机充电所消耗的能量一样多。每生成1000张AI图片,就需要消耗近3度电。

而生成视频更是电老虎,视频是每秒20-60张有关联的图片,一个小时的视频相当于大几万张的图片生成。以电影24帧的格式来估算,生成一个小时的视频需要约260度电。

AI生成的图片和视频如果要成为正式的创意作品,需要人工筛选和修改才能产生最终的作品,所以从原稿的角度,需要生成比最终视频长得多的原视频进行剪辑。

这一套下来的耗电量究竟多不多?不同的角度能够得出不同的观点。反对者认为,大模型不仅要消耗大量的电力资源,还因为大模型数据中心需要水冷散热,同时还会消耗天量的水资源。支持者认为,虽然耗电是个问题,但是它创造出来的价值远超消耗的能源。

无论你支持哪派,都不可否认,随着现如今全球都在发展AI,耗电量将会更多。到2027年,人工智能数据中心的用电量将和荷兰、瑞典等小国用电量相当。与大模型耗电量相比,之前“挖矿”可能真是小巫见大巫了。

马斯克曾预测,未来两年内行业将由“缺硅”变为“缺电”,而这可能阻碍人工智能的发展。

就连Open AI的CEO奥特曼也提出了他的忧虑。在1月份的达沃斯论坛上,他表示,人工智能的未来取决于清洁能源的突破。随着技术越来越成熟,AI将消耗越来越大量的电力,如果能源技术无法突破,就无法实现这一目标。

网上还有小作文说英伟达CEO黄仁勋说AI的的尽头是光伏和储能,虽然已经被证明为假,但是也体现出随着大模型的出现,公众对大模型“电老虎”的身份愈发担忧。

这个时候就该风电光伏水电等可再生能源出场了。

消耗电力并不可怕,随着人类的发展,人类使用能源、消耗能源一定会持续大幅上升,这是事物发展的必然规律。而且太阳每天都向地球源源不断地输送能源,我们实际利用的还不到1%。

而可再生能源,尤其是太阳能和风能,最大的挑战是发电时间和用电时间不匹配。如果不把电力存储起来的话,光伏发出来的电只能点亮白天的灯,不能給夜晚照明。人类也不能因为晚上风大风力发电多就改成晚上上班开机器,剩下来的电费都变成工人的加班费了。

但是AI可以。AIGC可能是解决光伏消纳问题的救星。

如果AI的训练和内容生成放到光伏风电大发的时间,即中午和凌晨,就可以完美地做到削峰填谷,提高光伏和风电利用率的同时,不和其他民用和生产用电竞争。怎么做到呢?像峰谷电价一样,设置一个大模型生产峰谷时段,中午和凌晨用大模型可以有优惠,用电高峰期用大模型就需要额外收费。同时,弃风弃光也可以用来训练时效性不高的AI模型。

更进一步,随着模型耗电越来越高,模型训练服务器就会逐渐转移到电费最低且发电最清洁的地区。所以我国大力发展可再生能源基础设施为将来支持海量算力打下坚实的基础,也使我们更快地迈向低碳和零碳社会。

#新能源# #人工智能# #AIGC概念#

全部讨论

03-16 14:38

听说过一个说法,ai最终可能占到人类目前用电的10%左右。