发布于: 雪盈证券转发:0回复:0喜欢:2
看华尔街见闻报道中,那神马专家去比较什么GPU成本和能耗比LPU低,都是扯淡。 当前chatGPT等大模型的痛点是什么?就是反应太慢了,问个问题要等很久,而LPU这种新架构大大加快了AI大模型的反应速度。 现在是抢用户的窗口期,那些科技巨头会在乎成本吗?在乎的是用户体验! 何况LPU目前还是第一代,还是初创企业,还是14nm工艺,成本和能耗未来可以降下来的。$英伟达(NVDA)$$苹果(AAPL)$$AMD(AMD)$台积电特斯拉