2023-08-02 23:58
我们有没
CSP陆续启动自研AI加速芯片计划,欲摆脱对NVIDIA与AMD的依赖
观察AI服务器(AI server)所用的加速芯片,其中英伟达(NVIDIA)Server GPU市占最高。然而,单张20,000~25,000美元的H100/H800,一台AI服务器建议配置约为8张卡,也使得总体拥有成本(Total Cost of Ownership,TCO)大幅提升。TrendForce集邦咨询观察到,各云端服务业者(CSP)虽然仍会向NVIDIA或超威(AMD)采购Server GPU,但也同步进行自研AI加速芯片的计划。
除了已经推出的Google TPU与AWS Trainium和Inferentia外,Google与AWS正着手研发次世代自研AI加速芯片,将采用HBM3或HBM3e。TrendForce集邦咨询表示,其他包含北美及中国的云端服务业者亦有相关验证进行中,预期未来AI加速芯片版图竞争会更加激烈。
我们有没