字节开卷大模型,价格比同行低99%

发布于: 雪球转发:0回复:1喜欢:0

经济观察网 记者 任晓宁首次对外公布大模型产品动态的字节跳动,就主动打起了价格战,并把旗下豆包大模型的计价单位从分降低到了厘。

在5月15日举行的火山引擎原动力大会上,字节跳动旗下火山引擎总裁谭待说,在32K(千字节)以下主力模型中,每1000 Tokens(大模型文本中的一个最小单位)的企业市场定价,GPT-4(美国AI研究公司OpenAI旗下的大模型)为0.42元,百度文心一言和阿里通义千问为0.12元。

而豆包主力模型在企业市场的定价为0.0008元/1000 Tokens,比行业平均价格降低99.3%。按照豆包主力模型目前的价格计算,用户花费1元,可以处理相当于3本《三国演义》文字量的内容。

在谭待看来,此次豆包大模型降价的原因,包括字节跳动有降低成本的能力、市场对降价有需求、使用量增加有利于提升大模型的性能以及吸引B端(企业客户)。

降价瞄准B端客户

在接受经济观察网在内的媒体采访时,谭待表示,此次降价主要有两个原因,一是字节跳动可以在大模型产品上做到低价,因为它在模型结构、训练、生产等各种技术层面都能做到很好,有很多优化手段能够实现降价。二是市场对降价呼声比较大,平台必须把试错成本做到非常低,才能让大家用起来。

另一方面,用户规模的扩大也将提升大模型的性能。谭待称,大的使用量,才能打磨出好模型,也能大幅降低模型推理的单位成本。

此外,谭待还强调了字节跳动大模型产品在B端方向的发展策略。他说,字节跳动不是在亏损基础上做降价这件事,做B端生意需要长期定力。

一位大模型公司人士提到,当前企业客户在对大模型招投标时,一般留到最后的是百度的文心一言和阿里的通义千问,其他公司由于服务经验少,中标率没有这两家公司高。该人士认为,字节跳动选择降价策略,是为了获得更多企业客户认可。

一位字节跳动内部人士告诉经济观察网,字节今日专门召开大模型产品的发布会,并宣布大降价,目的是吸引更多企业客户使用豆包大模型。

字节跳动没有公布旗下大模型产品的具体企业客户数量。此前百度公布的数字是,文心一言已服务8.5万家企业客户。阿里巴巴公布的数字是,通义千问通过阿里云服务了9万家企业客户。

国金证券互联网传媒首席分析师陈泽敏对经济观察网分析,随着模型算力成本的持续下降,大模型价格战迟早都要打,并且各家厂商都会参与。他认为,字节跳动能首先启动价格战,是因为它的规模效应可以让模型成本降下来,目前在C端(个人用户)产品层面,字节跳动处于领先位置。

值得注意的是,字节跳动此次降价,在内部保密程度较高。昨天彩排时,字节内部还没有公布降价的具体数字。但谭待说,选择降价并没有经过很复杂的讨论,他们在考虑清楚后,就决定要做这件事了。

持续发力C端产品

字节跳动此次对大模型产品的降价,主要针对B端产品,C端产品仍然免费。

在今日的发布会上,字节跳动也首次对外公布了旗下C端AI应用产品,包括豆包APP、扣子、星绘、猫箱。豆包APP是一款通用AI产品,与文心一言、通义千问相似,用户可以与它对话。扣子是一款类似GPT商店的产品,用户可以在扣子中生成自己的AI应用。星绘与妙鸭类似,是一款生成个人图像的应用。猫箱是一款娱乐类应用,用户可以与AI对话、玩游戏、玩剧本杀。

在所有字节跳动C端AI应用中,用户量最大的是豆包APP。根据字节跳动公布的数据,豆包APP总下载量1亿次,双端月活用户2600万,并且数据还在快速增长。根据市场调研机构Quest Mobile数据,今年1月,豆包APP在AIGC(人工智能生成内容) APP活跃用户排行榜中排名第一。截至今年3月,豆包APP月活用户量是文心一言的1.5倍。

除豆包大模型外,字节跳动也打造了豆包模型家族,具体包括:豆包通用模型pro(升级版)、豆包通用模型lite(简化版)、豆包·角色扮演模型、豆包·语音合成模型、豆包·声音复刻模型、豆包·语音识别模型、豆包·文生图模型、豆包·Function Call(函数调用)模型、豆包·向量化模型,这些模型主要在垂直领域使用。

C端产品矩阵扩大的背后,是字节跳动AI人才团队的壮大。脉脉方面提供给经济观察网的数据显示,去年1月至10月,在招聘AI人才最多的15家中国科技企业中,字节跳动排名第一。今年一季度,字节跳动仍在持续招聘AI人才,它招聘的AI人才数量,在上述15家企业中排名第二。

与其他互联网大厂早在去年就对外公布大模型产品的做法相比,字节跳动今年5月的官宣显得姗姗来迟。谭待说,选择现在对外公布产品,是因为豆包模型已经到了可以让大家用来做应用的时候了,到了这个阈值之后,对外发声才有意义。

全部讨论

05-15 20:35

说明它现在体量非常小。