电力
原帖已删除
之前我找了一份研究报告学习了下,它把ChatGPT所需要的算力量化出来了。
ChatGPT前段时间最高日活量是2500万,假设每日每个用户提问10个问题,平均每个问题是30个字,那单日咨询量就是75亿个字了。单个字在A100GPU芯片上需要消耗0.35秒,那处理75亿个字就需要一块芯片运行72.9万个小时。
一块芯片怎么可能一天内运行72.9万个小时。所以需要加芯片,要满足72.9万个小时的芯片计算量,每天需要约3万块A100芯片。一块A100芯片是1.3万美元,也就是要满足日活量2500万的ChatGPT日常运营至少需要价值4亿美元的算力前期投资建设。
这里还没有包含每日电费和每次训练费。如果要维持刚才的算力,单日电费需要约5万美元,1年约2000万美元。而训练AI每次的费用在200万美元~1000万美元不等,不同模型的训练成本不一样的,还有其他杂七杂八的费用我就不算了,省略。
以上是机构的报告,你认为全民AI要消耗多少电力?现有的能源能支持吗?越高科技越耗能源
你这个逻辑没有合理的依据。工业革命的本质并不一定要提高能量的量级,而是提高能量的效率。作为一个人,每天也就吃两斤饭,但是却有智慧,可以认为能量的利用效率很高。智能化就是形塑能量的使用方式,可以提高很大的效率,类似于变频空调