降价潮背后:中国产业大模型落地的卡点到底在哪?

发布于: 雪球转发:0回复:0喜欢:0

“技术是不会以任何商业行为或者人们的意愿所改变它的上限和下限的,它需要的时间是恒定的。 ”

作者|思杭

编辑|皮爷

出品|产业家

如果说中国大模型市场最核心的话题是什么?降价则必然是其中之一。

从目前的参赛玩家来看,不论是字节豆包,还是阿里、百度腾讯科大讯飞,国内的一众to b大模型厂商都被卷入这股降价潮中,它们或是全量降价,或是小参数模型降价。

“很多云厂其实本来没想降,但大家都降了,也没办法,只能跟。”一位相关人士告诉产业家。

具体来看,目前业内降价的主要版本更多的是基于公有云版本的接口成本降低,以及轻量化模型的调用成本调优。而从目前大模型的调用来看,这些也是当下开发者小范围使用最优先使用的版本。根据不完全统计,如今有超过40%的企业都在尝试使用大模型相关产品,或是基于办公,或是基于生产等等。

但这种意愿的蓬勃生长和这次降价潮并不成正相关。“其实降价对我们影响不大,本来我们的调用成本就很低,现在重点是能不能内部使用起来。”一位金融企业的CIO告诉我们。

这是很多人向产业家传递的信号。因此,在这背后,对应的一个核心问题是:降价,是不是会推动和加速大模型在产业和行业侧的落地?或者说,降价是不是大模型从技术向工程迈步的核心因素?

如果说一年前,市场对于这个问题的回答是肯定的,那么如今,这个问题则更多见仁见智。在产业家和不同企业的沟通交流中,得出的一致结论是,如今企业更多的卡点并非在大模型本身,而在于企业自己。

这些工程侧的卡点涵盖向量数据库、数据清理/标注、知识库的梳理建立以及内部业务逻辑和流程的清理,“我们现在想在copilot基础上加一层,到Agent的阶段,但整体的业务流程梳理需要时间。”上述人士告诉我们。

在降价潮把大模型拉回C位的如今,我们更应该审视的是在大模型进入中国一年后的当下,在技术、参数不再是唯一标准的如今,中国产业大模型的卡点如今到底在哪?

一、大模型时代,

低价究竟意味着什么?

“我们不希望发布半成品。之所以今天发布,是因为现在我们的模型能力已经准备好了。”火山引擎总裁谭待表示。上周三,火山引擎正式发布字节旗下的豆包大模型。

而与此同时,更为重磅的消息是,豆包大模型宣布降价,每千tokens价格0.0008,直接给出了“全网最低价”。

这也意味着,大模型价格战就此打响。先是阿里宣布其主力模型全面降价,在豆包大模型的基础上,再降三个点,每千tokens价格0.0005;当天下午百度宣布“免费,立即生效”,紧接着,阿里云再加码,宣布通义旗下的12款模型已开源,全部免费下载。等到了周三,参与者又多了科大讯飞腾讯

对此,海外媒体给出的评价是,国内互联网厂商的价格战,向来都遵循一个公式:“一旦降价,就直接击穿底价,‘不留活口’。”在过往的SaaS和云计算阶段,也恰都是这种节奏。

原因为何?或者说,大模型成熟到可以以如此低的成本进行大规模商业化了吗?

在谈及大模型价格之前,先来看云计算的价格战,在过去的几年时间里,包括阿里云、腾讯云、华为云等在云侧的价格也更都处于不断调低的模式,但就云计算技术本身而言,伴随着流批一体、分布式存储等技术的优化,服务器CPU的成本在加速降低。客观来看,这种降价逻辑完全合理。

但这里面忽略了一个问题,即时间纬度。从时间来看,国内云计算的发展早在2006年,甚至更早就已经开始了,等到了2014年左右才进入到快速发展期。而直到2016年,国内各大云厂商才开始灵活调整价格,真正的价格战,或者说竞相放低价格则要更晚。

从这个纬度来看,大模型在国内却仅发展了不到两年的时间,中间不论是如今整体算力上的短缺,还是对于GPU纳管的存储计算能力,以及其算法框架的优化, 尽管其是基于云计算的底层架构进行成本侧的优化,但目前都尚未成熟。

据了解,以目前国内的主流芯片而言,如果是软硬一体的交付,其算力利用率能到80%,但如果分别进行软件和硬件的交付,整体由于异构以及不兼容的问题,其利用率甚至可以低到60%以及更低。此外,就国内的主流芯片而言,其相较于英伟达的H100等性能,同等价格下其性能更是只有其60%左右。

这些都代表着对大模型而言,真正良性的价格下浮并没有实现。那么,从这个节点来看,大模型厂商厂商降价的本质是什么?

在前段时间,王小川曾聊到这样一句话,“百川智能不参与价格战,因为我们主要面向的是c端业务,降价的主要是B端的需求。”

诚然如此,从本质来看,在大模型降价背后,对一众云厂商而言,其可以通过更低的价格更快、更好地构建自身的AI开发生态,通过让自身的大模型产品被更多B端企业使用,进而建立数据飞轮和强化用户粘性。

从当下来看,一旦企业选择使用一家大模型,一般要经历搭建知识库、数据库、数据清理/标注,以及训练、微调等环节,这也意味着其替换成本极其高,对模型厂商而言则对应的是极高的用户粘性以及提前卡位。

实际上,从各家面向生态的动作能窥得一二。比如百度面向开发者推出的一众包括飞桨在内的开发社区,再比如阿里自身的魔搭社区,以及腾讯、华为面向开发者的一众工具,在降价的动作背后,也更是对自身AI生态的底层加速。

二、低价,

真的会「催熟」大模型落地?

而在生态和客户粘性之外,更应该思考的一个问题是:低价真的会催熟中国产业大模型的落地吗?

客观来看,如果说大模型是一个简单的C端应用,或者对于企业来讲是一个“拿来即用”的程序,那么降价或免费策略一定会更大程度地催熟市场。但如果站在企业搭建大模型的角度,这个问题则要更复杂得多。

总体来说,企业自身搭建一个大模型,不仅仅需要从大模型企业那里获取相关服务,对于企业自身也有更高要求,比如企业内部的数据训练、知识库搭建等等。

以一个在金融企业内部的大模型实际案例为例,即银行需要构建大模型,其第一步是数据收集。首先,各部门需要把风险评估、客户信用评分、欺诈检测等数据汇总起来,同时在此基础上,收集各部门对大模型业务的需求。

其次,将这些结构化和非结构化的数据进行具体整理,并确定数据来源。这里包括数据清洗、转换数据格式等等。

而这些工作都是企业在业务部门内需要完成的。

在完成了整个数据层面的处理,还需要进行模型层面的训练。这里则需要用到大模型厂商提供的服务,比如基于大模型厂商提供的SFT组件,以及对应的prompt模块进行模型训练调整。

另外,为了行业模型能够更精准地匹配业务,大模型厂商还需要配合企业完成知识库的搭建。

可以看到,大模型落地更等同于一个系统工程。即使大模型企业通过低价或免费策略吸引了大量客户,企业客户在实际应用中仍需要投入大量的资源和时间来整合和优化这些服务。目前从国内的实践落地来看,尽管已经有一些央国企在带头完成各自行业里的垂直模型搭建,但其中在数据收集以及训练层面也仍是困难重重。

此外,问题也更在模型侧。“包括我们不知道在不同的场景我们到底该用多大的模型进行训练,这点我们技术团队只能根据厂商给出来的几个模型一个个试,但究竟是多大的能够做什么事情,这个事情没有明确的说明。”一位相关技术负责人告诉产业家。

从某种程度来说,降价解决的仅仅是大模型工程最前端的入口问题,但对于整个过程中的全部链路节点的打通,这中间的各种问题仍然足够繁琐,关卡难度也更足够大。

三、大模型,

「行业壁垒」之战

“用亏损换收入是不可持续的,所以我们从来不走这条路子。”火山引擎谭待这样告诉媒体。

站在商业化的角度去思考,既然目前大模型厂商离盈利还较远,那么如今字节、阿里、百度科大讯飞腾讯都纷纷宣布降价,甚至免费,在这波操作背后,这些大模型厂商有没有更深层的意图?

首先,一个在过去互联网时代和云计算时代的逻辑是,大厂推出的系统和应用要想在行业里站稳脚跟,就必须要有一定的行业know-how积累和服务经验的沉淀。

同样地,这套思路也适用于大模型时代。只是与之不同的是,大模型时代是站在互联网时代和云计算时代之上的,一方面,过去的问题不会重复出现,比如数据孤岛和系统之间打通的问题,在大模型时代基于scaling law的模式,则会有更好的解决方式;

另一方面,过去的互联网厂商和如今的大模型厂商是同一批参与者,这也意味着,一些包括数据库、中间件以及数据层面的行业积累可以复用。

实际上,这也是为什么去年华为盘古大模型一经发布,就打着“不作诗,只做事”的口号,直接选择行业大模型的原因。此外,包括百度、阿里、腾讯、火山引擎等更是在行业大模型侧不断加码,比如在5月28日的智能经济论坛峰会上,百度副总裁沈抖就表示,百度的行业大模型方案是在通用大模型的基础上,催生出N个行业小模型,基于“大模型+小模型”的方案帮助企业落地。

相较之下,腾讯的混元大模型的行业积累则聚焦在社交、办公和汽车领域。在不久前刚结束的北京车展前后,腾讯也发布了汽车行业大模型,这也是基于腾讯的混元大模型之上的,比如在汽车研发、生产、营销、服务和企业协同办公等场景,汽车大模型都可以发挥作用。

然而,上述提到的行业案例也只是目前大模型生态里的冰山一角。

可以感知到的是,目前各家大模型厂商的一致路径都是,通过与行业企业的合作,基于更精准的数据进而构建出各自的大模型行业壁垒。

写在最后:

实际上,从降价到大模型大规模实际落地,中间还有很长的一段路要走。这条路是大模型厂商如何做好模型搭建相关的云服务,企业如何梳理数据、训练数据、如何基于业务逻辑搭建模型,以及工具和接口是否一致等等问题。

但降价潮本身也并非毫无意义。

从目前的落地情况来看,大模型在B端的落地还远未到成熟的地步。在大模型厂商之外,SaaS企业也更在进行软件层面的AI重构,能看到的是,包括用友、金蝶、微盟、销售易等企业,它们有的选择与大模型企业合作搭建自己的大模型;有些则选择以API的方式接入大厂的大模型底座,在上面建自己的AI Agent;再或者,有些则是更进一步,构建“AI+SaaS”原生应用。

这些新的基于软件层面的尝试,都将建立在算力足够普惠的基础上。“未来整个行业的推理成本每年降低10倍是可以期待的,而且这个趋势是必然的。对于行业来说,现在模型的API调用还是非常非常低的比例,如果推理成本一年降低10倍那就有更多的人可以用上大模型,这是非常利好的消息。”李开复表示。

算力普惠,是大模型落地的充分条件,但从如今的进度条来看,它尽管需要被正视价值,但远远不能成为改变整个大模型落地的最强催化剂。

“技术是不会以任何商业行为或者人们的意愿所改变它的上限和下限的,它需要的时间是恒定的。”上述金融企业的CIO说道。