仓又加错-刘成岗 的讨论

发布于: 雪球回复:5喜欢:1
搬运一个知乎的帖子(侵删),非常专业,作者 到处挖坑蒋玉成 应该是搜索从业人士,可以参考 网页链接

【既然是搜索产品,那就要以搜索产品的标准来进行评判。OpenAI的人在推特上说ChatGPT目前推断一次的成本需要几美分,延时基本上以秒为单位。而通用搜索引擎(即所谓的“大搜”)的召回和粗排的在线计算成本几乎可以忽略,精排部分也比较轻量(注意跟电商和推荐的精排不一样),计算代价的大头主要来自于相关性模型(通常基于BERT/ERNIE等),主流的搜索引擎都要求网络条件良好的情况下不能产生用户可以明显感知的端到端推断延时。
据我了解,百度目前使用的是24层ERNIE,经过推断优化之后(百度有自己的飞浆框架)部署在单卡V100上,而Google应该是使用差不多或更大规格的BERT部署在自家TPU上。一般搜索引擎的相关性计算发生在粗排之后。我们假设取粗排结果的top50进行计算,每一个结果要求延时控制在20ms之内,那么一次query对应的GPU/TPU计算时间就是50X20=1000ms,正好是1s。
为了便于计算成本,这里我们直接以V100为例,阿里云上的一台V100实例的价格是每小时26.46元人民币,按秒计算的话就是每秒价格0.00735元人民币,不到一分钱。如果ChatGPT一次推断是3美分的话,按汇率6.8计算,那么ChatGPT一次推断的成本就是搜索引擎一次query的0.03*6.8/0.00735=27.75倍。
这个计算公式已经极大地有利于ChatGPT了——第一,企业自己采购的GPU,使用成本显然远远低于阿里云按小时计费;第二,如果愿意适当让步的话,那么BERT这个级别的模型的推断优化技术已经非常成熟了,不管是剪枝,量化还是蒸馏,都可以极大地降低计算负载,比如搜狗的做法是将模型蒸馏到4层TinyBERT,这样只要一块T4就可以支撑线上推断——而T4实例的价格最低可以压到每小时11元。综合下来,保守估计,搜索引擎一次query的在线计算成本可以压到ChatGPT的1%。
那么问题来了,站在用户的角度,ChatGPT每次推理,给你带来的收益,平均下来能达到搜索引擎的100倍么?站在企业的角度,ChatGPT的每次推理,能带来100倍于搜索query的收入么?这还仅仅是线上计算成本和收益的问题,以商业产品的视角来看,ChatGPT要作为产品进行大规模商用,要解决的远远不止成本这一个:并发访问量、推断延时、答案正确性保证、内容安全……每一个问题都必须解决,每一个问题也都非常棘手,这些问题连学术界都没有摸到门路,更别提工业界了。如果一个产品需要付费使用,高峰期访问得排队,返回的答案还需要再去搜索一遍以确保它没有一本正经地胡说八道,那这个产品显然是没有多大的市场的。
综上所述,ChatGPT,或者说类似的LLM,要实现有效的商业化应用,依然任重而道远。以AI技术的视角来看,ChatGPT确实是非常伟大的奇迹,但至少目前看来,它离“下一次革命”不说完全不沾边吧,至少也是有非常遥远的距离……
顺带一提,LLM并不是今年突然冒出来的东西——GPT-3在2020年就已经诞生了。从这个时间点来算的话,过去两年内,对于LLM训练和推断代价过高的问题,整个工业界都在原地踏步……】

热门回复

2023-02-07 08:22

“上面的每一个问题都必须解决,每一个问题也都非常棘手——连学术界都没有摸到门路,更别提工业界了”。就看这句话就不太专业。作者应该是学术界的吧。chatgpt这种规模和复杂度的事情,学术界一点机会都没有,必须是工业界做出来。

其实还是没说到点子上。本质区别是搜索引擎是流量入口,可以把用户倒流到能满足他们的需求的场景/平台,这是搜索业务商业价值的来源。搜索广告只是一种体现形式。chatgpt只能是玩具,基本没有商业化潜力。上面的回答只分析了成本问题,但是chatgpt连赚钱都没做到,别说压低成本了。

新技术肯定是先追求效果,再降低成本

2023-02-06 18:07

是专业,但是充满了老年人对年轻人的教育味道,就是以另外一个事情的经验套在一个新事物上,看上去非常有道理。但是现实社会的突破,往往是年轻人不切实际的发明创造。

2023-02-06 17:28

这种才是专业的比较[很赞],现在市场评论包含太多的憧憬了