发布于: Android转发:1回复:3喜欢:2
看了一下AI的规模原则,以及对能耗的预测;
感觉这个克服信息熵的能耗,算是纯纯的增量。
有预计到2026年AI的能耗总量能达到日本的用电量规模,如果这个预测准确的话,那么目前的AI路径,可能对能源的需求和投资能持续很长时间;按这个量级和增速,不仅美国的电力供应有缺口,全球的电力供应都会有缺口。
所以,算力的竞争,或者说,对信息序列化的信息熵能耗,可能会超过物质转换的热量熵的能耗;最后还是会落脚在能源的竞争。
另外,信息熵的熵增看起来比热量熵的熵增快多了;比如炼一吨钢或者一吨铜,要让这钢和铜重新变成不可用的失序状态,需要挺长的时间;但花了大量能耗画的一幅画,或者组织的一篇文字,只需要一瞬间就可以抹掉让它重新回到失序状态。

全部讨论

05-11 10:09

这说明当前这个高耗能的算法绝对是不可持续的,一个物体绝对是能耗比越小越适合生存、普及,计算机刚出来时候一个房子那么大,在数学、物理的不断进步下,小到现在,光是 ai 这个领域,算法每隔几年就做一次大的改变,从几十年前的决策树,再到 svm 支持向量机,再到神经网络,再到深度学习,再到现在的 transformer,过几年绝对有不依赖堆数据和电力的更牛的算法,这种对于电力需求的线性外推绝对是陷阱,但可能不妨碍炒作。

05-11 12:04

如果AI有了记忆功能,或许能解决能耗问题