今晚,百度与字节硬刚:2490亿vs1200亿

发布于: 雪球转发:0回复:0喜欢:0

今天,大模型圈非常热闹,整个产业“卷”字当头。

一早,字节跳动便在火山引擎原动力大会上首次公布了大模型“豆包”的新动态,行业价格战正式被引发。

从字节的宣传来看,豆包主力模型在企业市场的定价只有0.0008元/千Tokens,并同时披露,豆包大模型可以日均处理1200亿Tokens(大模型文本中的一个最小单位)文本。也是在今日,百度方面表示,文心大模型日均处理Tokens文本已达2490亿。

和讯商业了解到,字节跳动此次对大模型产品的降价,主要针对B端产品,C端产品仍然免费。很显然,此次降价的目标瞄准的是B端企业群体。

B端是苦生意,需要长期稳定的坚持和投入,一位大模型领域的分析师告诉和讯商业,企业客户在对大模型招标时,很看重服务经验,此次豆包的降价,是为了获得更多企业客户的认可。

在发布会现场,字节跳动没有公布旗下大模型产品的具体企业客户数量。而此前百度公布的数字是,文心一言已服务8.5万家企业客户。2024年1-4月,国内大模型的中标项目发布近200个,百度在中标数量、覆盖行业、中标额三项位居第一。

从技术迭代路线上观察,豆包大模型采用的是公有云+闭源技术路线,这一点和百度一致,也是当下产业的大势所趋。

此前,百度创始人李彦宏曾在内部发言称,在大模型场景下,开源反而是最贵的,所以开源模型会越来越落后。

在上述分析师看来,B端群体也会更关注效果,如应用效果、响应速度等,而非单纯的低价。生成式AI时代,需要的是价格与效果并举,性价比最关键。“随着模型算力成本的持续下降,大模型价格战迟早要打,可能巨头都会参与进来。”

百度看来,使用大模型不应该只看价格,更要看综合效果,只有让AI应用效果更好、响应速度更快、分发渠道更广,才能让人们切实感受AI为社会生产带来的便利。“如果单纯拼价格,百度还能祭出价格更低的大模型。”

相比低价战略,当下百度文心大模型关心的重点放在了应用和智能体的分发,这可能与百度传统优势项目搜索息息相关,搜索引擎作为互联网基础设施,同时也是互联网的入口之一,本身也是最大的AI应用场景之一。

在AI大模型的改造下,现在的百度搜索更适合智能体的分发,目前智能体已经收到了B端企业较为正向的反馈,公开的数据显示,当下基于智能体分发量已达到日均数百万次。

需要指出的是,大模型市场规模持续增长,市场前景广阔。千际投行给出的数据显示,预计2028年市场规模将达到1179亿元。2022-2028年复合增长率约为60.11%,市场规模快速成长。

如此庞大的市场,足以容纳豆包、文心一言、通义千问等大模型,为企业带来更多的商业机会和竞争优势。

正如百度所言,最近几天,国内外大模型厂商密集发布新的大模型,既卷性能又卷价格,这是好事,让大家都“用得起”大模型。

--THE END--