讲的浅显易懂,很容易明白
AI运算,以神经网络为例,里面的底层数学就是加减乘除,sin,cos等等最基本的东西,但计算量巨大。所以10000个小学生速度可以秒杀8个博士。
“AI芯片”这词意思就是专门为AI运算设计优化的芯片,GPU就非常适合AI运算,就变成了“AI芯片”了。。。
AI芯片和GPU是两个概念,GPU指的是通用处理器,具备图像渲染能力、视频编解码能力以及计算能力。GPU的ALU是FP32的。AI芯片算是GPU的一个子集,更多是属于ASIC芯片,即专用芯片,只能运行某些特定的算法,但由于已经把算法硬件化了,功耗会更低,效率会更高。但也因此失去了通用性,即如果想用之前的AI芯片去计算新的算子是实现不了的。AI芯片里面的ALU一般是Int8的,从硬件实现的角度来说做训练和推理的AI芯片并不难实现。与GPU的难度可以说是完全不在一个水平线。
最开始GPU是不太适合AI运算的,但英伟达厉害的地方在于搞了一套软件生态,这样一来所有的AI研究就慢慢围绕英伟达的GPU开展,否则AMD的GPU也不弱,为什么用的人这么少呢