但实际情况也是按的说法,不自己开发了,越来越多的人接入头部大模型,那推理端的算力是不是越来越需要了?不然假设10亿人同事用apple的大模型,访问是不是不够了?//@新低表:回复@左庶子:那会不会压制算力的需求,毕竟大家不自己开发了,都接入头部的几个大模型。
刚消息称苹果接近与OpenAl达成协议,将ChatGPT应用于iPhone。
一旦这些巨头开启AI推理服务,算力的开支很难想象,猜想AI能力服务逐步开放,同时AI算力成本逐步下降,这样形成一个剪刀差形态。
再一个启示就是:云厂商为提升竞争力,必须要自建算力中心,对于大部分非云厂商,是否有必要去...