发布于: 雪球转发:0回复:0喜欢:0
回复@新低表: 你觉得是以后每家一个大模型吗[大笑] 但实际情况也是按的说法,不自己开发了,越来越多的人接入头部大模型,那推理端的算力是不是越来越需要了?不然假设10亿人同事用apple的大模型,访问是不是不够了?//@新低表:回复@左庶子:那会不会压制算力的需求,毕竟大家不自己开发了,都接入头部的几个大模型。
引用:
2024-05-11 10:25
刚消息称苹果接近与OpenAl达成协议,将ChatGPT应用于iPhone。
一旦这些巨头开启AI推理服务,算力的开支很难想象,猜想AI能力服务逐步开放,同时AI算力成本逐步下降,这样形成一个剪刀差形态。
再一个启示就是:云厂商为提升竞争力,必须要自建算力中心,对于大部分非云厂商,是否有必要去...