AI语料-最直接最快的变现点

发布于: iPhone转发:0回复:0喜欢:0

3月27日,初创公司Databricks发布公告并推出开源AI模型DBRX。据测试结果,DBRX或将成为迄今为止全球最强大的开源大型语言模型(LLM),超越Meta的Llama 2。不同赛道的AI大模型高频迭代,有望催化上游供给和下游需求进一步提升;“百模争流”或正逐渐演变为“多线作战”,细分赛道竞争持续白热化,战况如火如荼。

  DBRX测试表现优异,开源大型语言模型王座或将易主。DBRX采用transformer架构,包含1320亿参数,共16个专家网络组成,每次推理使用其中的4个专家网络,激活360亿参数。据公司官网的实验数据,对比Meta公司的Llama2-70B、法国MixtralAI公司的Mixtral以及马斯克旗下xAI开发的Grok-1等主流开源模型,DBRX在语言理解、编程、数学和逻辑方面均以优势胜出。语言理解:DBRX得分73.7%,高于GPT-3.5 (70.0%)、高于Llama 2-70B (69.8%)、Mixtral (71.4%)以及Grok-1 (73.0%)。编程能力:DBRX得分70.1%,远超GPT-3.5 (48.1%),高于Llama 2-70B (32.3%)、Mixtral (54.8%)以及Grok-1(63.2%)。数学领域:DBRX得分66.9%,高于GPT-3.5 (57.1%),高于Llama2-70B (54.1%)、Mixtral (61.1%)和Grok-1 (62.9%)。由此可见,DBRX在语言理解、编程、数学和逻辑等方面或已对目前业内领先的开源大模型实现超越。头部语言大型模型王座或易主,有望催化赛道竞争加剧,赋能下游产业,催化内容和应用端落地。

  提质增效,降低硬件门槛,轻量化有望持续赋能端侧,长效利好C端内容生产。DBRX是基于斯坦福MegaBlocks开源项目构建的混合专家模型,平均只用激活360亿参数来处理token,可实现极高的每秒处理速度,效率极高。据官方团队介绍,DBRX是在12万亿Token的文本和代码上预训练的16×12BMoELLM,其支持的最大上下文长度为32k Tokens,其推理速度比LLaMA2-70B快了近200%,总参数和活动参数数量比Grok小约40%。由于大幅的精简和提质增效,该模型甚至有望在64GBRAM的机器设备上运行。降低运行成本有望进一步放低C端使用门槛,为进一步落实商用AI提供借鉴参考。

$万丰奥威(SZ002085)$ $浪潮信息(SZ000977)$ $中广天择(SH603721)$