AI芯片重要,软件生态更关键。但是,最近仔细洞察后,AI算力芯片的未来趋势,从悲观,走向乐观:
1、在小模型时代,每一个厂家,都有自己独特的算法神经网络,各种各样的算子五花八门,这时候芯片架构不好弄,软件平台也特别烦,最爽的是CUDA,全世界都拿他作为golden ,其他人都向它看齐,拼命补算子,刚刚补得七七八八,又要来一大堆,没完没了。 所以,小模型时代,就是CUDA的天下,小厂的噩梦。
2、到了大模型,底层都是transformer架构,分解到底层的算子就那么几个,标准化了,不变应万变。所以,大模型,即将应用侧无法泛化的算法问题解决了,也解决了底层无穷无尽算子开发的问题。 构建芯片生态没那么难了。
3、CUDA最怕啥? 标准化的底层算子。大模型下,CUDA的优势大打折扣,给了后来者奋起直追的机会。
比如,华为昇腾NPU刚出来时,和同期Nvidia的A100硬件算力相当,因为底层软件平台不成熟,从系统层面看,整整追赶了三年。但是,在大模型平台上,只用了几个月,就把硬件的能力全部发挥出来了,这就是实证。