比GPT-4快18倍,世界最快大模型Grog登场!每秒500 token破纪录,自研LPU是英伟达GPU 10倍。重点:不同于英伟达GPU需要依赖高速数据传输,Grog的LPU在其系统中没有采用高带宽存储器 (HBM)。它使用的是SRAM,其速度比GPU所用的存储器快约20倍。