2023爱分析·大模型厂商全景报告|爱分析报告(1)

发布于: 修改于: 雪球转发:0回复:0喜欢:0

01 研究范围定义

研究范围

大模型是指通过在海量数据上依托强大算力资源进行训练后能完成大量不同下游任务的模型。2023年以来,ChatGPT引爆全球大模型市场。国内众多大模型先后公测,众多互联网领军者投身大模型事业,使得大模型市场进入“百团大战”阶段,2023年成为公认的“大模型元年”。

企业用户方面,大模型的应用速度之快超乎想象。2023年初,企业管理层对大模型的话题还停留在大模型是什么,是不是概念炒作。短短半年,大模型已经从饭后谈资走向落地应用。大企业管理层们希望了解到大模型能为企业发展带来哪些变革,大模型的应用路径是什么,如何提升大模型的投资回报率,以及应该为拥抱大模型做哪些准备。而且,大模型吸引的人群也愈发广泛,不仅吸引CIO、CTO等技术管理者的关注,CEO、CMO等非技术类管理者同样期待大模型在业务中发挥价值。这些转变表明,大模型的变革之力正日益得到产业界的认可。

通过对市场规模数据的分析,能较为直观地体现出企业对大模型应用落地的热情。爱分析数据显示,2023年中国大模型市场规模约为50亿元(人民币,下同)。2023年,企业在大模型方面的采购特点是论证多、采购少,各企业计划在2024年开始大量释放大模型预算,因此市场规模将大幅增长,预计达到120亿元。

爱分析认为,大模型市场从技术架构角度可以划分为基础层、模型层、中间层和应用层。基础层是指为大模型训练推理而提供的基础环境,包括湖仓一体、向量数据库、智算中心、大模型安全流通平台等。模型层是指基础大模型以及微调后的大模型,包括通用大模型、行业大模型、领域大模型和企业大模型。中间层是模型层和应用层之间的“桥梁”,有利于大模型在各种实际场景快速落地,包括大模型应用开发工具、LLMOps工具等。应用层是指大模型应用和解决方案,包括知识库问答、智能客服、对话式分析等。大模型市场划分详见下图。

图1:大模型市场全景地图

本报告重点选取知识库问答、对话式分析、AI Agent、通用大模型、行业大模型、企业大模型、大模型安全流通平台七个市场进行研究。

厂商入选标准:

本次入选报告的厂商需同时符合以下条件:

厂商的产品服务满足各市场分析的厂商能力要求;

近一年厂商具备一定数量以上的企业付费客户(参考第3章各市场分析部分);

(注:“近一年”指2023年Q1至2023年Q4)

02 厂商全景地图

03 市场分析与厂商评估

爱分析对本次大模型项目重点研究的特定市场定义如下。同时,针对参与此次报告的部分代表厂商,爱分析撰写了厂商能力评估。

3.1 知识库问答

市场定义:

知识库问答是指将大模型与知识库相结合,改变原有的知识库构建、应用与运维的方式,致力于更好地支撑企业管理层及全体员工的知识检索与应用需求。

甲方终端用户:

企业管理层及全体员工

甲方核心需求:

成本可控、验证速度较快、覆盖的企业内部用户比较多等多重因素共同作用下,知识库成为大模型在企业落地的首选场景之一。从渗透情况来看,大模型在知识构建、知识校验和知识库应用三个环节渗透较深。

图1:知识库构建流程及大模型渗透情况

基于大模型在知识库场景的渗透情况,当前甲方对知识库问答主要有三项核心需求,一是压缩知识库冷启动时间,二是降低知识校验环节对人工的依赖,三是企业亟需解决幻觉问题。

压缩知识库冷启动时间。当前,知识构建工作比较依赖话术师,他们负责整理问答对和扩写相似问,此过程比较依赖他们的个人经验。一个话术师整理一类知识库通常需要耗费大约1-3 个月的时间。知识构建是知识库冷启动的核心环节,知识构建效率偏低会直接导致知识库冷启动时间比较长。企业需要借助大模型的理解能力和生成能力压缩知识库冷启动时间。引入大模型之后,可以提升问答对整理和相似问扩写的速度,甚至可以直接采用“大模型+文档库”的方式,实现更极致的冷启动压缩。

降低知识校验环节对人工的依赖。在完成知识构建后,企业需要校验知识准确性以及文法细节,此环节主要靠人工来实现。并且,该工作对相关人员的工作经验有较高要求。企业希望借助大模型实现自动化知识校验。

知识库交互方式变化,企业亟需解决幻觉问题,生成可信的答案。传统知识库主要采用人工检索方式,很难直接告诉用户答案,该交互方式比较低效。企业需要利用大模型的生成能力直接生成用户所需的答案。但是,交互方式的变化也为知识库应用带来新的挑战,即大模型幻觉导致的答案不可信。

厂商能力要求:

厂商需要满足三项能力要求,一是具备利用大模型进行知识分类、知识抽取和问答对拆分的能力,二是具备解决两个校验难题的方案,三是具备RAG、微调等缓解大模型幻觉的能力。

具备利用大模型进行知识分类、知识抽取和问答对拆分的能力。引入大模型之后,首先可以做知识域的自动分类。第二个作用是自动抽取知识点的实体和关系,本质是基于大模型做预处理,降低对人工的依赖程度。第三个作用是问答对拆分和相似问扩写。过去,该环节非常依赖话术师,有大模型以后可以实现自动化,相关人员则转变为审核职能,即主要负责知识管理,而非知识创建。

具备解决两个校验难题的方案。直接利用大模型进行知识校验存在两个比较明显的问题。首先是过度校验。即原来的回答比较准确,但大模型会演绎出很多新内容,导致校验工作质量下降。第二个问题是新词校验存在滞后性,因为大模型背后的知识是无法实时更新的。厂商可以通过Prompt工程、RAG、微调大模型等方式解决上述两个问题。

具备RAG、微调等缓解大模型幻觉的能力。企业需要利用大模型的生成能力直接生成用户所需的答案。但是,交互方式的变化也为知识库应用带来新的挑战,即大模型幻觉导致的答案不可信。厂商需要具体幻觉大模型幻觉的能力,主要有RAG、微调两种方式。RAG是指在大语言模型推理生成答案时,额外检索调用外部的知识,然后综合其检索结果进行回答生成。RAG为大模型提供了准确、丰富、可解释的知识支撑,从而实现更准确的语义理解、答案推理以及答案解释。微调则是厂商根据行业或企业数据,对基础大模型进行优化,以便其更好地胜任特定任务。对基础大模型进行后训练也是一种缓解大模型幻觉的方式,但较高的成本导致其可行性较低。

入选标准:

1. 符合知识库问答市场分析的厂商能力要求;

2. 近一年厂商在该市场至少服务1家企业(含POC)。

代表厂商评估:

爱数

厂商介绍:

爱数是一家全域数据能力服务商,通过全域数据的整合、治理、洞察与保护,实现数据的资产化和知识化,与客户共同打造数据驱动型组织。2003年爱数在长沙起步,2006 年上海爱数成立,2023 年爱数集团正式成立,公司双总部位于上海、长沙,目前全球员工约 1700 人,业务遍及 60 多个国家与地区,合作伙伴超过千家,客户积累超过 27000 家,分布于金融、高端制造、运营商、政府、公共事业等各行业。

产品服务介绍:

爱数产品架构分为基础层、认知层和产品层。基础层提供GPU集群和混合数据湖;认知层则通过领域大模型与领域知识网络相互增强,实现认知能力;产品层是指AnyFabric(数据编织架构)、AnyShare(智能内容管理平台)、AnyRobot(可观测性平台)和AnyBackup(统一数据管理平台)等多个应用产品,它们通过认知助手获得大模型赋能。

AnyShare family 7是AnyShare的最新产品,它是爱数打造的属于AGI 时代的智能内容管理平台。AnyShare family 7通过挖掘非结构化数据的标签、编目、实体对象,形成的事件信息和知识,可以服务于合同一致性和风险审核、文案撰写、资料查找。并且,在AnyShare 认知助手加持下,AnyShare family 7实现了大模型辅助创作、辅助内容阅读和智能搜索,同时可以通过内容开放 API 和组件被企业应用集成。

厂商评估:

爱数提供“企业知识+大模型”端到端解决方案,涵盖算力、基础大模型、知识化、应用等多个层面。并且,AnyShare存量客户只需采购爱数大模型一体机和AnyShare认知助手,即可实现轻量化升级。在大模型幻觉方面,爱数以检索增强生成模式(RAG)实现大模型领域化,可以有效缓解幻觉产生。在交付方面,爱数拥有完备的数据管理能力和服务团队,有利于大模型在企业真正发挥价值。同时,AnyShare family 7全模块开放,支持企业搭建个性化应用和流程。

爱数提供“企业知识+大模型”端到端解决方案,涵盖算力、基础大模型、知识化、应用等多个层面。在算力层面,爱数推出大模型一体机(AS19000),不仅让企业能够“开箱即用”,而且该产品将大模型训练与推理分离,实现低成本训练和低资源推理。爱数大模型一体机具有国产芯片和国外芯片两种型号,可以满足不同企业的需求。在基础大模型方面,爱数采用“中立”的架构设计,避免捆绑企业。如果企业没有倾向的大模型,可以直接采购封装了基础大模型的爱数大模型一体机;如果企业有倾向的大模型,可以直接将其接入AnyShare family 7。基础大模型之上是企业数据知识化能力层,爱数可以通过机器学习算法对企业数据进行解构,然后通过重新组装实现语义对齐,最终将其编织到领域知识网络之中。在此方面,爱数具备将企业数据以低成本、自动化方式转化为企业知识的能力。最上面是应用层,爱数提供内容门户、文档中心、工作中心、知识中心、表格中心、SAP数据资产管理等多个应用。

AnyShare存量客户只需采购爱数大模型一体机和AnyShare认知助手,即可实现轻量化升级。企业比较担心大模型应用对企业现状的挑战。一是IT投入挑战,如果需要企业将原有系统推倒,转而使用大模型相关应用,会带来比较高的投入。二是IT负责人规划能力会受到质疑,因为企业原有系统可能刚刚完成建设,未到更新换代的时候,IT负责人推进大模型应用落地可能受到来自企业内部的质疑。三是业务连续性受到挑战,企业将原有系统推倒重建,可能需要较长时间完成系统切换,影响业务开展。爱数AnyShare产品推出时间较久,有众多存量客户。对他们而言,只需采购爱数大模型一体机和AnyShare认知助手,即可实现轻量化升级。大模型一体机包含算力和基础大模型,AnyShare认知助手包含爱数所有基于大模型构建的AI能力。因此,AnyShare存量客户无需推倒原来系统,即可低成本、快速地完成“大模型升级”。

爱数以检索增强生成模式(RAG)实现大模型领域化,有效缓解大模型幻觉。目前,大模型领域化有两种解决思路,分别是检索增强模式(RAG )和Finetune(微调)。检索增强是指在大语言模型推理生成答案时,额外检索调用外部的领域知识网络(领域数据、概念库、知识图谱等),然后综合其检索结果进行回答生成。领域知识网络为大模型提供了准确、丰富、可解释的知识支撑,从而实现更准确的语义理解、答案推理以及答案解释。相比单纯依靠模型训练,外部领域知识网络的引入可以大幅提升回答的准确性和合规性。它有效减少了大模型幻觉,使应用更加可控。爱数以领域知识网络“可控制、可编辑、可保护、可溯源”等特性弥补大模型“不可控、难编辑”等缺陷,有效减少大模型“幻觉”现象的发生。

同时,在构建领域知识网络的过程中,爱数利用大模型的知识提取能力,从已有数据中抽取补充知识,实现知识网络的不断丰富和优化。通过这种良性循环,外部知识网络的引入强化了大模型的知识抽取能力,从而反过来进一步完善知识网络本身。最终使基于该知识网络的大模型应用效果持续提升。

爱数拥有完备的数据管理能力和服务团队,有利于大模型在企业真正发挥价值。基础大模型是实现“企业知识+大模型”的核心,但不是全部,厂商还需要具备权限控制、杀毒、水印等一系列数据管理能力。如果厂商只掌握预训练、微调等方法,容易导致企业在“企业知识+大模型”的应用之路上停留在比较初级的阶段。爱数AnyShare产品已有十余年历史,交付了数千家企业,经过几轮迭代逐渐形成比较完备的数据管理能力,包括权限控制、海量分布式文件管理、容灾、备份、杀毒、水印、国产化、涉密管理等。以权限控制为例,企业内不同角色能接触到的数据、能用大模型来理解的数据必受个人权限限制,爱数能够保证经过语义理解的生成式搜索结果一定是根据使用者所拥有权限能看到的文档所产生的,并能在几十到几百毫秒完成一系列查找、生成工作。

除此之外,爱数拥有比较完备的组织架构为企业提供端到端的服务。爱数打造了专业的、独立于产品研发的服务团队,分区域为当地客户提供开发、部署等服务。爱数的产品研发团队则专注核心产品的研发迭代,保持产品稳定性。相较于组织架构比较单一的厂商,爱数在交付周期、版本控制、服务品质等方面具有一定优势。

AnyShare family 7全模块开放,支持企业搭建个性化应用和流程。AnyShare family 7拥有全新的架构设计,每个模块均保持高度开放性,支持企业搭建个性化应用和流程。企业里一个文档全生命周期包括自动采集录入、对象处理、信息化、杀毒、知识化、纳入知识体系、搜索、门户呈现等环节, AnyShare family 7在每个环节让特定模块来负责,并保持它们的高度开放性。比如企业可以自定义审批、打水印等流程,自定义搜索目标(人、文档或者产品),自定义门户的个性化呈现等。企业可以在每一环节低成本、快速地按照自身需求进行系统接入和开发。

典型客户:

国泰君安、金诚同达

3.2 对话式分析

市场定义:

对话式分析是指将大模型与数据分析相结合,改变原有的交互方式与工作流程,致力于更好地支撑企业管理层和业务部门数据分析需求。

甲方终端用户:

企业管理层、业务部门

甲方核心需求:

随着大模型带来能力突破,让AI与数据分析相互结合,使分析结果更好地支撑企业管理和业务发展,促进企业内部数据价值释放,成为了当下企业尤为关注的话题。爱分析认为,对话式分析是大模型在2024年的重要落地场景之一。核心原因在于对话式分析正在朝着逐渐降低门槛,增强企业业务部门自主性,从而实现自助式分析能力的方向发展。

企业对对话式分析有两项核心需求,一是借助大模型实现更准确的意图理解和SQL生成,二是借助大模型实现深度分析。

借助大模型实现更准确的意图理解和SQL生成。传统的取数过程中,用户需要明确掌握SQL语言和相应的数据库结构来提取所需信息。随着NL2SQL技术兴起,用户只需使用自然语言描述需求,由后端系统将其转换为适当的SQL语句,简化了查询过程。但NL2SQL技术仍有缺陷,其自然语言处理能力较弱,在处理模糊查询和复杂意图查询方面存在挑战。例如,NL2SQL技术难以解决像“我想查询公司内部有多少本科以上学历的员工”这种问题,该模型可以准确识别“本科”一词,但难以理解“本科以上”这四个字。大模型为NL2SQL带来了更强大意图理解能力,在处理模糊、多义或复杂的用户查询时,系统可以更准确地识别用户的真实需求。当然,在大模型出现之前,市场上也存在解决以上问题的方法。这是主要依靠项目化的方法,通过不断的配置和人工微调的方式来解决查询模板无法处理的问句。该方法导致项目交付周期长、成本投入大,并且长期需要运维人员持续维护。

除在意图理解方面的优势外,大模型在SQL生成方面也可以给企业带来更好的体验。2023年8月,Defog团队推出SQLCoder大模型,专门用于将自然语言问题转化为 SQL 查询。这是一个拥有150亿参数的模型,在自然语言到SQL生成任务上,其性能略微超过gpt-3.5-turbo,并且显著地超越了所有流行的开源模型。

借助大模型实现深度分析。取数可以视为分析的前置动作,也可以视为浅层分析。其属于描述性分析,用于回答“发生了什么?”,核心要求是呈现全面、准确、实时、可视化的数据。除此之外,企业还需要诊断性、预测性和处方性数据分析。诊断性分析用于回答“为什么会发生”,核心要求是能够深入了解问题的根本原因。预测性分析用于回答“未来可能发生什么”,核心要求是通过历史数据来预测未来。处方性分析用于回答“现在我应该做什么”,核心要求基于数据和分析技术提出具体建议。诊断性、预测性和处方性数据分析需要用相关性分析、预测性分析、因果推断等分析方法来具体实现。企业对对话式分析的期待不局限于取数,而是希望它在深度分析方面可以发挥更大价值。

图2:数据分析的四个层次

厂商能力要求:

厂商需要满足两项能力要求,一是具备限定查询边界的能力,二是具备训练或微调大模型的能力。

具备限定查询边界的能力。为保证取数准确率,目前主要采用限定查询边界的解决思路。具体而言,有两种实现路径。一是将大模型与宽表或语义层相结合,运用宽表和数据源来构建语义层,继而在该语义层上进行相应的匹配和查询。这类模式的具体操作方式是,先去精准地匹配到语义层,如果未能实现精准匹配,一般会通过一个亿级别的小模型先去精准地匹配到宽表,然后基于宽表再用大模型去做理解,二是基于指标平台,这一点与前面提到的语义层颇为相似,是把常见的指标先基于宽表进行计算,如果再运用自然语言查询指标,其精确度会相对较高且基本上具备可控性。这种方式能够在一定程度上降低幻觉现象。

具备训练或微调大模型的能力。企业可以直接用基础大模型进行相关性分析和预测性分析,但效果欠佳。需要厂商对基础大模型进行训练或微调,一是强化其各项数据分析的能力,二是提升多轮对话能力,因为深度分析时往往需要用户与系统的多次交互才能获得最终结果。当前,通过大模型实现因果推断难度较大,对厂商而言不属于必要能力项。

入选标准说明:

1. 符合对话式分析市场分析的厂商能力要求;

2. 近一年厂商在该市场至少服务1家企业(含POC)。

代表厂商评估:

飞算科技

厂商介绍:

飞算数智科技(深圳)有限公司(简称“飞算科技”)是一家坚持自主创新的数字科技公司,作为新一代数字化技术服务专家,飞算科技以互联网科技、大数据、人工智能等技术为基础,结合多年实践经验推出一系列数字科技产品。致力于为民生产业、中小企业、金融企业等客户提供科技支持与服务,助力客户实现科技化、数字化、智能化转型升级。

产品服务介绍:

飞算科技拥有产业数字化服务、软件科技服务、数据治理服务、数智应用服务、产业科技服务、数字决策服务等六大业务板块,涵盖SoFlu软件机器人、SoData数据机器人、AI.Modeler建模机器人、AI.Insight、产业数智通等产品及解决方案。

飞算科技积极将旗下产品及解决方案与大模型融合,已取得一定成果,AI.Insight是其中代表。AI.Insight是一款AI赋能的数据分析产品,它在企业数字化转型过程中发挥承上启下作用,形成以数据为基础的业务决策支撑,提高企业决策的准确性。AI.Insight属于通用产品,不局限于特定行业。

图3:AI.Insight 技术架构

厂商评估:

数据分析与决策支援是大模型的重要落地场景之一。借助大模型,数据分析正朝着企业业务部门自助式分析方向发展。飞算科技的AI.Insight 以大模型为技术支撑,支持业务人员与企业数据实现对话式交互,规避以往业务人员与IT/分析人员的“交流鸿沟”和复杂流程。并且,AI.Insight提供可视化分析、异常分析、自动算法分析等多项能力,实现一站式数据分析,解决分析工具割裂难题。同时,飞算科技还以AI.Insight为核心打造客户运营全流程解决方案,助力企业可持续发展。

飞算科技具备完善的数据分析方法论,有利于建立企业业务部门对AI.Insight的价值共识,推动立项。飞算科技深耕数据分析多年,已搭建一套完善的数据分析方法论,该方法论明确展示企业决策与数据分析方法的关联关系。具体而言,飞算科技认为从数据到决策的过程包括四个环节,分别为“发生了什么”、“为什么发生”、“将发生什么”和“我该怎么做”,依次对应描述性分析、诊断性分析、预测性分析和处方性分析。

图4:数据分析过程、方法及工具

并且,飞算科技对当前企业数据分析痛点有深刻认知,将其归纳为“分析工具割裂”、“人的沟通割裂”、“流程复杂”三个方面。基于数据分析方法论和痛点认知,飞算科技可以快速诊断企业在数据分析方面存在的问题,与企业业务部门达成共识,进而推动立项。

以大模型为技术支撑,AI.Insight支持业务人员与企业数据实现对话式交互,规避以往业务人员与IT/分析人员的“交流鸿沟”和复杂流程。数据分析领域的最大痛点:懂业务的人不懂技术,懂技术的人不懂业务,即技术部门与业务部门的割裂造成沟通困难。两类群体的沟通过程主要有四个痛点。一是业务人员无自主分析能力,需要向IT提出分析需求。二是业务人员提出需求给IT/分析人员,往往出现IT/分析人员对需求的理解存在偏差。三是IT/分析人员数据整理复杂,业务人员借助分析工具进行数据分析,时间周期长。四是给出的分析结果并不能满业务需要,从而往复沟通。

AI.Insight应用大模型的自然语言交互能力,让业务人员可以自主跟企业数据直接交互,并将分析结果通过自然语言生成业务人员易理解的语言描述。该方式规避了业务人员与IT/分析人员沟通难的问题,让分析周期从数周缩短到数日。

AI.Insight提供可视化分析、异常分析、自动算法分析等多项能力,实现一站式数据分析,解决分析工具割裂难题。不同分析目的需透过不同分析工具才能达成,企业使用数据进行决策时一般需要综合使用传统BI工具、编程工具、建模平台、情境模拟等多种工具,分析工具割裂造成数据分析成本较高以及效率较低。

AI.Insight将多种功能集于一身,可实现一站式数据分析。具体而言,AI.Insight有四个亮点功能。一是异常分析,AI.Insight可以自动对数据进行时序异常检测、因果关联、波动归因等原因分析,并给出结论性描述。二是自动分析,AI.Insight可以对数据洞察点进行Auto OLAP分析,支持上卷、钻取、切片、切块等多维度分析与多种机器学习算法分析。三是客户特征分析,AI.Insight基于数据洞察点进行客户特征分析,定位目标客户群体。四是智能图表推荐,AI.Insight通过智能图表推荐引擎展示合适的图表,并支持用户灵活切换图表。

飞算科技以AI.Insight为核心打造客户运营全流程解决方案,助力企业可持续发展。经济发展放缓,行业红利消退,企业逐渐重视存量客户运营。较多企业希望能充分地释放存量客户的复购潜力,将其作为业绩增长重点。但是,多数企业使用的方式比较传统,它们依赖经验法则和人工操作,导致效果欠佳。

飞算科技以AI.Insight为核心,结合AI.Modeler自动建模平台和AI.Marketer自动化营销平台,为企业提供客户运营全流程解决方案。该解决方案可应用于“高潜力存量客户名单筛选”、“客户唤醒与交叉销售”等多个场景,助力企业实现高效的客户运营。

典型客户:

某国有银行重点分行、某知名餐饮连锁企业

3.3 AI Agent

市场定义:

AI Agent是指以大模型为驱动,具有自主理解感知、规划、记忆和使用工具的能力,能自动化执行完成复杂任务的系统。

甲方终端用户:

企业IT部门、业务部门

甲方核心需求:

AI Agent相较于Copilot,有诸多能力的提升。其中,Planning能力是二者最大的区分,也是企业最为需要的能力项。Copilot需要明晰的Prompt才能发挥作用,AI Agent则与此不同,它可以自行规划并执行任务。AI Agent完成计划后,企业需要其调用组件来执行任务。对大企业而言,可能需要上百个AI Agent,需要对多AI Agent进行统一管理。

企业需要AI Agent的Planning能力。AI Agent相较于Copilot,有诸多能力的提升。其中,Planning能力是二者最大的区分,也是企业最为需要的能力项。Copilot需要明晰的Prompt才能发挥作用,AI Agent则与此不同,它可以自行规划并执行任务,也可以调动一系列组件来完成目标,甚至可能探索周围环境。例如AI Agent可以知道用户所在公司差旅政策以及用户对航空公司、酒店的偏好信息,当用户跟它下达指令就可以说“帮我安排下周的行程”,它们将直接输出切实可行的方案。

企业需要AI Agent调用组件来执行任务。AI Agent若要完成用户的任务指令,通常需要调用各种组件,例如文档处理组件、数据分析组件等。这将改变人与系统的交互方式,用户不再需要对系统功能以及操作路径进行记忆,而是通过自然语言让AI Agent调用组件来执行任务。

企业需要对多AI Agent进行统一管理。目前来看,尚不具备满足所有场景需求的“超级AI Agent”,企业要针对不同场景构建多个AI Agent。对大企业而言,可能需要上百个AI Agent。如果考虑AI Agent的生命周期与更新低代,管理工作将变得更为复杂。因此,企业需要对多AI Agent进行统一管理。

厂商能力要求:

厂商需要具备构建AI Agent Planning能力的解决方案。当前,尚不具备成熟的、统一的构建方法,各家厂商各有千秋,包括结合专家SOP、引入CoT概念或ReAct模式等。AI Agent若要完成用户的任务指令,通常需要调用各种组件。相应地,厂商需要具备丰富的组件库,让AI Agent能真正发挥价值。对于企业的个性化需求,厂商应预留低代码开发模块来满足。企业需要对多AI Agent进行统一管理。从成本、安全等方面考虑,企业一般不会长期依赖厂商提供相关服务,而是需要一套成熟工具链实现能力内化。该工具链应该覆盖AI Agent构建与运营的全生命周期管理。

厂商需要具备构建AI Agent Planning能力的解决方案。AI Agent相较于Copilot,有诸多能力的提升。其中,Planning能力是二者最大的区分,也是对企业最为需要的能力项。厂商需要具备构建AI Agent Planning能力的解决方案。当前,尚不具备成熟的、统一的构建方法,各家厂商各有千秋。有的厂商采用结合专家SOP的方式,由业务专家将业务流程梳理成SOP的形式,将其与大模型结合。此方法适用流程比较固定场景,例如财报分析、简历分析等。有的厂商在方案中引入CoT概念或者ReAct模式,让大模型生成关于任务指令的解决方案。

厂商需要具备组件库和低代码能力。AI Agent若要完成用户的任务指令,通常需要调用各种组件,例如文档处理组件、数据分析组件等。并且,交互方式的改变是的用户无需记忆系统功能和操作路径,进而突破系统组件上限,进一步增加对组件的需求。相应地,厂商需要具备丰富的组件库,让AI Agent能真正发挥价值。对于企业的个性化需求,厂商应预留低代码开发模块来满足。

厂商应提供AI Agent构建与运营的全生命周期管理平台。企业需要对多AI Agent进行统一管理。从成本、安全等方面考虑,企业一般不会长期依赖厂商提供相关服务,而是需要一套成熟工具链实现能力内化。该工具链应该覆盖AI Agent构建与运营的全生命周期。

入选标准说明:

1. 符合AI Agent市场分析的厂商能力要求;

2. 近一年厂商在该市场至少服务1家企业(含POC)。

代表厂商评估:

澜码科技

厂商介绍:

澜码科技是一家基于大语言模型的Agent平台公司,是国内探索大语言模型应用落地和AI Agent的先行者。基于底层大语言模型,澜码科技自主研发了能够连接人和系统的企业级Agent平台“AskXBOT”,助力企业构建基于专家知识的超级自动化,从而提升业务质量和效率。

产品服务介绍:

AskXBOT平台是澜码科技自主研发的基于大语言模型的企业级AI Agent平台。平台集Agent与工作流设计、开发、使用、管理,以及知识沉淀于一体。在AskXBOT平台上,企业可以用对话的方式提出需求,设计、创建和管理 Agent,快速定制企业级 AI Agent 来完成各类任务,包括财报分析、组卷判卷、供应商资质审查、智能风控、财务审核、经营分析、招聘助手等。

厂商评估:

澜码科技助力企业实现“专家知识普惠”,提升基层员工生产力。并且,澜码科技已构建较完善的业务价值体系,搭配成功案例可快速推进AI Agent立项。AI Agent属于新兴领域,澜码科技是该领域的先行者。针对“企业如何建设AI Agent”的问题,澜码科技经过探索已沉淀出一套较完整的方法论。在商业模式方面,澜码科技较为独特,提出了“先有收益,再分配”的商业模式,希望与行业伙伴共建AI Agent生态。

澜码科技助力企业实现“专家知识普惠”,提升基层员工生产力。过去,企业业务专家的经验主要通过“SOP文件+培训”的方式传递至基础岗位员工,传递过程存在大量损耗,导致成本较高且效果欠佳。基于AskXBOT 平台,企业可以将专家知识快速传递给基层员工,实现知识普惠,进而提升基层员工生产力。具体而言,AskXBOT 平台先将专家知识教给AI Agent,然后让其赋能大量基层员工,帮助他们将工作能力由“新手”、“高级新手”快速成长为熟练级的胜任者,工作状态也相应地从仓促应对转变为从容胜任。例如,某银行借助AskXBOT平台在短期内对18万名员工完成保险业务培训,这在过去是难以实现的。

澜码科技已构建较完善的业务价值体系,搭配成功案例可快速推进AI Agent立项。讲清楚大模型业务价值是CEO同意将大模型纳入企业未来规划的必要条件之一。大模型厂商需要构建自己的业务价值体系,与CIO/CTO合作推动企业管理层对大模型及其应用的价值认同,最终实现立项。澜码科技围绕AskXBOT平台构建了一套较为完善的业务价值体系,包括增收、降本、提效和降风险等要点。同时,澜码科技已在金融、教育、零售、政务等行业落地多个成功案例,可作为业务价值的佐证用来增强对CEO的说服力。

增收相关案例:某银行在信贷申请高峰期人手不够,一般有两种处理选项。一是降低审核标准,加快审核速度,但会带来更多坏账风险;二是坚守审核标准,但过长的等待时间会将客户推向其他银行。澜码科技利用AskXBOT平台把审核专家的知识通过CUI的方式让一线初级员工也能用起来,在保证审核质量的同时缩短审核时间,留住更多潜在信贷客户,实现增收。

降本相关案例:某海外汉语教学机构服务于一带一路上多个国家的学员,对他们进行汉语培训与考试。考试的工作流程一般是先由汉语专家确定考试模板,再需要初级和中级教育人员执行出题与翻译工作。当前,该机构聘请了5名全职教研员和150名外聘实习教师从事第二阶段的工作。澜码科技利用AskXBOT平台可以迅速完成出题工作,帮助该机构减少对初级和中级教育人员的人力支出。

澜码科技探索出较完整的AI Agent建设方法论,并提供全流程服务。AI Agent属于新兴领域,澜码科技是该领域的先行者。针对“企业如何建设AI Agent”的问题,澜码科技经过探索已沉淀出一套较完整的方法论。

图5:澜码科技AI Agent建设方法论

澜码科技的AI Agent建设方法论包括三个步骤。第一步是把企业关键业务流程所需要的专家知识进行数字化处理,包括梳理问答、搭建指标中台等。第二步是基于CUI的柔性交互,致力于让系统适应人,而不是人适应系统。第三步是把整个使用过程记录下来,作为持续补充和优化专家知识的依据。

AI Agent建设过程中涉及专家知识梳理、指标中台搭建等工作,澜码可提供相关服务。为满足企业需求,澜码科技配备了专业的知识团队,职能类似于传统AI时代的数据标注团队。并且,澜码科技的创始人兼CEO周健也可参与指导项目,贡献行业及流程Know-how。周健曾是依图科技的10号员工和弘玑Cyclone CTO,具备多年B2B一线业务经验。

澜码科技提出“先有收益,再分配”的商业模式,希望与行业伙伴共建AI Agent生态。澜码科技致力于与合作伙伴建立更深层次的合作。具体而言,澜码科技负责提供AskXBOT平台等生产力工具以及相关服务,由合作伙伴提供专家知识和业务场景。待双方合作取得业务收益之后,在进行收益分配。并且,澜码科技将遵循排他性的合作原则,在每个细分行业中只合作一家企业。

如今,猎头,咨询、电商选品等多个行业的数家企业对该合作模式感兴趣,已与澜码科技进入商务谈判环节。

典型客户:

太平保险、桃李中文、CGL、超级导购、湖北省市场监督管理局

3.4 通用大模型

市场定义:

通用大模型是指通过在海量数据上依托强大算力资源进行训练后能完成大量不同下游任务的非开源免费模型。

甲方终端用户:

行业头部企业IT部门

甲方核心需求:

大多数企业只需要大模型应用,而头部企业对大模型的需求则不局限于此。通用大模型是头部企业IT基础的重要拼图之一,企业需要依托通用大模型进行能力建设。企业需要通用大模型可以支撑业务,发挥价值。并且,企业需要“通用大模型+算力”的综合解决方案来应对“卡荒”。

企业需要依托通用大模型进行能力建设。大多数企业只需要大模型应用,而头部企业对大模型的需求则不局限于此。通用大模型是头部企业IT基础的重要拼图之一,企业需要依托通用大模型进行能力建设。企业需要通用大模型支撑多种业务场景,例如客服、数据分析、营销素材生成等。这些场景映射到模型本身,则对模型能力提出要求,包括文本生成、SQL生成、多模态等。当前,尚不存在“六边形战士”类的全能大模型,头部企业可以通过采购、部署多个通用大模型,共同完成大模型能力建设。

企业需要通用大模型可以支撑业务,发挥价值。部署通用大模型并不能直接为企业带来价值,还需要“改造”和“开发”。改造是指结合企业私有数据进行微调甚至后训练,以便其更好地执行特定任务。开发是指需要基于通用大模型开发全新的上层应用或者赋能已有的IT系统。

企业需要“通用大模型+算力”的综合解决方案来应对“卡荒”。 通用大模型的微调、推理需要高端AI芯片作为算力底座。但是,美国政府持续扩大针对中国芯片的出口限制,加剧了国内算力供应的压力,AI芯片价格持续走高且一卡难求。企业通常需要“通用大模型+算力”的综合解决方案来应对“卡荒”,解决对算力的后顾之忧。

厂商能力要求:

企业基于对通用大模型的需求,向厂商提出多项能力要求。一是通用大模型需要具备鲜明的能力特点。二是厂商需要提供大模型应用开发工具、LLMOps工具、AI Agent等工具层产品。三是厂商需要具备足够的高端AI芯片,并具备以华为昇腾为代表的国产化芯片替代方案。

通用大模型需要具备鲜明的能力特点。头部企业需要依托通用大模型进行能力建设。当前,尚不存在“六边形战士”类的全能大模型,头部企业可以通过采购、部署多个通用大模型,共同完成大模型能力建设。因此,通用大模型需要具备鲜明的能力特点,与企业需求进行匹配。能力特点包括文本生成、SQL生成、多模态、知识检索、多轮对话、提示词长度等。

厂商需要提供大模型应用开发工具、LLMOps工具、AI Agent等工具层产品。出于成本和安全等因素考量,企业需要实现大模型改造和开发能力的内化。除通用大模型和算力之外,厂商通常需要提供大模型应用开发工具、LLMOps工具、AI Agent等工具层产品。涵盖大模型应用开发、大模型微调、大模型运维、AI Agent构建与运维等多个方面。

厂商需要具备足够的高端AI芯片,并具备以华为昇腾为代表的国产化芯片替代方案。企业需要“通用大模型+算力”的综合解决方案来应对“卡荒”。相应地,厂商需要具备足够的高端AI芯片,才能满足企业需求。鉴于美国芯片供应的不确定性持续增加、国产芯片的崛起以及国产化替代事业的推进等多重因素,将国产芯片应用于微调、推理场景是大势所趋。厂商应具备以国产化芯片替代方案。当前,华为昇腾910是最热门的替代方案。

入选标准说明:

1. 符合通用大模型市场分析的厂商能力要求;

2. 近一年厂商在该市场至少服务1家企业(含POC)。

代表厂商评估:

出门问问

厂商介绍:

出门问问是一家以生成式AI和语音交互为核心的人工智能公司,为全球多个国家的创作者和企业提供AIGC工具、AI政企服务,以及AI智能硬件。出门问问致力于打造国际领先的通用大模型,通过AI技术、产品及商业化三位一体发展,成为全球AI CoPilot的引领者。

产品服务介绍:

出门问问基于自研通用大模型——序列猴子,面向全球多个国家的创作者和企业提供一系列大模型产品及解决方案。「序列猴子」大模型以语言为核心的能力体系,涵盖“知识、对话、数学、逻辑、推理、规划”六个维度。特别的是,该模型拥有优秀的跨模态知识迁移能力,能够将语言模型所涵盖的常识知识有效转化应用于其他非语言模态的模型当中。目前出门问问自研大模型「序列猴子」已通过备案,向全社会开放.

图6:出门问问AIGC SaaS

魔音工坊是一款AI配音及多人协同创作工具,具备软件配音、云剪辑、一键分析视频、文案提取、捏声音等功能。目前,「序列猴子」大模型赋能语音合成引擎,使其AI配音产品“魔音工坊”实现轻量数据极速克隆,情感效果媲美真人。魔音工坊还推出了面向海外内容创作者的海外版“DupDub”和企业可通过API整合部署的企业版。

奇妙元是一款数字人产品,可用于短视频制作以及网络直播,该产品不仅可以生成数字人形象,而且可以自动生成文案。

奇妙问是出门问问推出的“企业AI交互式数字员工生成平台”,面向政企、文旅等行业,打造数字接待、数字客服、数字销售等交互型数字员工。

图7序列猴子大模型

厂商评估:

出门问问深耕AI与大模型,具有深厚的技术和客户积累。出门问问的大模型产品不局限于单一文本模态,而是聚焦多模态。出门问问通过提供多模态大模型应用,为企业实现深度赋能。除多模态之外,出门问问还依托Agent技术打造企业知识助手、数据分析助手和自定义流程助手,致力于提升通用大模型的可用性和业务价值。在产品可用性方面,出门问问基于自研大模型解决“问答系统响应慢”难题,让问答系统更可用。在商业化方面,出门问问在内容创作领域已建立完整的大模型产品业务价值评估体系,有利于企业快速推进大模型立项。

出门问问深耕AI与大模型,具有深厚的技术和客户积累。出门问问是一家以生成式AI和语音交互为核心的人工智能公司,具有619项AI相关知识产权。该厂商已推出多款AI穿戴设备,以及汽车、金融和医疗等行业AI解决方案,是业内少有的具备软硬件集成能力的AI公司。在大模型方面,出门问问布局时间早于大部分厂商,其在2021年6月发布大模型“UCLAI”,并在2023年4月发布大模型“序列猴子”。

出门问问持续关注大模型前沿技术,其在AI Agent方面具备一定研究成果,并推出了一款相关产品。出门问问的AI Agent产品为面试机器人,属于奇妙问产品旗下。面试机器人主要应用于面试模拟场景,机器人基于面试背景设定以及使用者的简历信息,可以主动与使用者进行交流。另外,出门问问正聚焦“文案一键智能生成视频”技术研究,希望将其应用于网络短剧的快速制作。

出门问问具有深厚的客户基础,其在传统AI时代推出的魔音工坊、奇妙元等产品已积累大量客户。这些产品已完成大模型升级,提升了对客户的价值和吸引力。当前,魔音工坊、奇妙元等产品已积累约60万付费客户。并且,出门问问在大模型时代全新推出的奇妙元产品也已签约多家企业,进入交付阶段。

图8:魔音工坊产品能力与商业化进程

出门问问为企业提供多模态大模型应用,实现深度赋能。出门问问聚焦多模态,致力于让“序列猴子”大模型具备统辖音频、图像、视频等不同模态内容的能力,实现对企业场景更全面、更深度的覆盖。在音频方面,出门问问打造魔音工坊;在图像方面,出门问问打造奇妙元;在视频方面,出门问问正聚焦“文案一键智能生成视频”技术研究

与业界聚焦多模态 Agent 方向的总趋势一致,出门问问推出了全新产品——奇妙问。奇妙问是出门问问多模态能力的集大成者,其将聪明的大脑、动听的声音和好看的外表融为一体,并与不同场景的大屏进行结合,为企业打造具备数字接待、数字客服、数字销售等职能的数字员工。

出门问问依托Agent,提升通用大模型的可用性和业务价值。Agent兴起,成为大模型价值落地的主要方式之一。出门问问依托Agent技术打造企业知识助手、数据分析助手和自定义流程助手,致力于提升通用大模型的可用性和业务价值。

企业知识助手通过整合企业私有知识库来丰富大型模型的知识储备。这种整合使得Agent能够提供基于自然语言的、交互式的企业专有知识查询服务。进而解决通用大型模型在应对企业应用场景时因领域知识不足而产生的误导性问题,即幻觉问题。企业知识助手已在工商银行私人银行落地应用。

出门问问基于大模型构建的数据分析助手能够通过将自然语言转化为数据分析语言或代码,例如调用API、访问数据库乃至编写数据分析代码,从而高效地获取、分析和可视化数据,为企业决策提供有力支持。克服传统BI工具常面临的使用难度大、高度依赖技术团队、结果反馈慢等问题。数据分析助手已在某半导体显示产品龙头企业落地应用。

理想的Agent应当在接收一套工具集和相关知识后,它能依靠大型模型的理解和推理能力独立地规划并拆解任务,设计出具体的执行步骤。它能智能地运用各种工具,检索所需知识,生成内容,并最终完成任务。然而,在企业实际应用中,由于各企业的知识体系、应用场景和业务需求差异巨大,加上大型模型本身存在的不确定性,这种“放手”式的做法往往带来不可预测的结果。出门问问基于此推出自定义流程助手,致力于满足企业对Agent的可控性需求,即对AI的执行过程和细节进行更精细的控制,确保AI能够按照人类确认过的工作流程来执行任务。自定义流程助手已在某智慧交通龙头企业落地应用。

出门问问基于自研大模型解决“问答系统响应慢”难题,提升问答系统可用性。问答系统是现阶段大模型最主流的应用之一。当使用者向问答系统提出问题之后,一般会经过声音转文字,大模型推理等环节才能呈现答案。如果是数字员工形态的的问答系统,还需进行渲染处理。使用者耐心有限,问答系统必须压缩各个环节时间,实现对问题的快速响应。然而,大模型推理环节一般耗时较长。因此,加快推理速度是厂商打造可用问答系统的“必答题”。

出门问问的解决方案是降低大模型“体积”,从而获得推理速度的提升。该方案的核心要点在于找到大模型推理效果和推理时间的最佳平衡点。出门问问自主研发通用大模型“序列猴子”,其在大模型预训练、微调等技术方面底蕴深厚。出门问问通过对自研大模型的灵活调整,已找到该最佳平衡点,解决了“问答系统响应慢”难题,让旗下的问答系统(奇妙问)更可用。

在内容创作领域,出门问问已建立完整的大模型产品业务价值评估体系。大模型“出圈”效应显著,许多企业高管表达出对大模型及其应用的浓厚兴趣。但从实际立项情况来看,大模型项目立项并不顺利。主要原因在于CEO等企业一把手希望看到大模型的业务价值,而较多IT负责人难以表达清楚。出门问问在内容创作领域深耕多年,积累数十万名付费客户。出门问问面对内容生产商和内容批发商等内容创作领域的参与者,总结出一套业务价值评估体系。该体系包括业务价值构成以及衡量价值的关键指标,有利于企业快速推进大模型立项。

典型客户:

中国工商银行、某能源类央企、某半导体显示产品龙头企业、某大型石化企业、某智慧交通龙头企业