图:火山引擎总裁谭待公布豆包大模型定价
第一点也是最引人注目的一点,豆包大模型的定价是行业最低,应该也是国内外都算进去的史上最低。而且,豆包大模型不是便宜一点点,它是大幅度打下了之前的行业价格。
火山引擎总裁谭待认为,降低成本是推动大模型快进到“价值创造阶段”的一个关键因素。
可能有些人不太理解这句话背后的意义。举个例子,去年GPT火爆之后,国内掀起了大模型应用创业热潮,但是在笔者拜访过的三十几家创业公司里,竟然没有一家做C端生意。一位技术出身的CEO曾经为笔者算过这样一笔账,他们的主要业务是AI营销写作,他们的客户每消耗一次资源写一篇3000字稿子,他们自己的算法框架需要调用各家大模型数万Tokens,其成本上十元。因为他们处于初创阶段,文章生成质量非常不稳定,用户只能生成一堆文章来挑选。他们的注册用户数只有几百个,但每周的资源消耗量在10000次以上,调用总成本超过50万元。如果不做B端生意,他们手里的投资很快就会花光。但是一直做B端生意,这种创业公司成长就会非常缓慢。
这虽然只是个特例,但也非常真实的反映了一个问题:调用大模型的高昂价格,已经成为AI应用创新的枷锁。不是创业者们缺乏奇思妙想,而是他们验证的机会太贵。如果不把大模型的价格打下来,AI应用不会真正百家争鸣,百花齐放。
现在,豆包大模型的定价大幅低于市场底价:以豆包通用模型pro-32k版本为例,模型推理输出价格仅为0.0008元/千Tokens,相比市面上同规格模型便宜99.3%;通用模型pro-128k长文本版本,输入价格为0.005元/千Tokens,比同规格模型更是便宜了95.8%;通用模型lite,一元钱就能买到125万 Tokens,相当于生成3部《三国演义》的文字量。
火山总裁谭待表示,大模型降价,不能只提供低价的轻量化版本,主力模型和最先进的模型也要够便宜,才能真正满足企业的复杂业务场景需求,充分验证大模型的应用价值,从而催化出超越现有产品和组织模式的创新。
第二点,豆包是调用量最大的模型。众所周知,大语言模型的调用量越多,打磨出的效果越好。截止5月11日,国产大模型客户端下载量超过1亿的只有三家,其中豆包排名第一为1.447亿,远超剩余第二、第三名。过去一年,豆包大模型经过内部打磨和市场验证,正成为国内使用量最大、应用场景最丰富的大模型之一,目前日均处理1200亿Tokens文本,生成3000万张图片。
第三点,更理解用户需求,更实用。模型被用得越多,效果越好,越能理解真实用户需求,并实现持续迭代。从抖音、小红书、头条等平台也可看出,不少用户选择使用豆包解决实际问题。
第四点,场景更丰富多元。豆包模型支持的场景足够多。在 C 端,豆包支持字节生态的多个业务,如豆包APP、猫箱、飞书、番茄小说、河马爱学、剪映、抖音电商等;在 B 端,豆包模型已与蒙牛、招商银行、OPPO、海底捞、百胜中国等达成合作。
另外,近期火山方舟升级到 2.0 版本。
火山方舟是火山引擎发布的大模型服务平台,提供模型训练、推理、评测、精调等全方位功能务,并重点支撑大模型生态。面对安全问题,火山方舟也可以通过稳定可靠的安全互信方案,保障模型提供方的模型安全与模型使用者的信息安全,让大模型可以更快服务于干行百业。
众所周知,企业在进行模型落地时往往会面临模型效果(MaaS服务)、应用丰富度(对应应用服务)、推理规模化和供给(云服务)等问题。升级后的火山方舟 2.0 可提供平台能力、模型组合和智能体三层产品架构,具备一站式模型落地能力,更便于企业使用。
现在的火山方舟平台性能更优,系统承载力大幅提升。比如精调方面,用户做更少的投入,就能达到更优的效果;再比如推理性能方面,火山方舟上所有精调模型都能实现快速推理,且能达到5分钟2000+台节点的接入点启动速度。
而且,火山方舟目前还实现了更完整、便捷的智能体完成落地。比如,火山引擎发布的专业版扣子(Coze.cn),在该平台上无论技术人员还是非技术人员都能实现零代码开发各类AI Agent。当前,扣子上已经聚集了广泛的开发者,其生态非常丰富。
另外,火山方舟还拥有更强大的大模型插件,比如联网搜索插件——这也是业内首家多模态联网组件,其实时热点和意图识别检索能力在国内均处于领先水平;再比如内容插件,其精选的均是抖音集团系的智能内容,覆盖了抖音80%PV+自定义内容;还有RAG知识库,其性能更强大,可以在很大程度上降低AI幻觉。
这两年来,在火山方舟的支持下,不少企业完成了产品创新升级,解决了棘手问题,极大地提升了客户体验。
以终端设备方向为例,华硕作为全球知名的 IT硬件制造商,从消费者对 AI 技术的需求出发,研发了“豆叮 AI 助手”,并于今年3月在“华硕 a 豆”系列的 a 豆14 2024 ADOL14VA、a 豆14 Air M5406ADOL 等机型上投入使用。在火山引擎的技术底座支持下,豆叮 AI助手获得了出色的对话、查找以及创作能力。同时,借助火山引擎大模型,豆叮 AI 助手以多样化的功能成为了用户的贴心助理。
再以证券行业为例,传统证券客服体系存在产品形态孤立、意图识别泛化性不足、缺乏多轮会话理解能力等问题,导致客户体验不佳,无法形成一站式财富管理助手形式的服务能力。
基于火山方舟平台,华泰证券构建了新一代财富管理助手,解决了传统技术无法精准识别意图、无法与客户进行多轮交互的问题,加强了与用户的交互体验和一站式服务能力。通过大模型、传统模型、业务交易流程的融合,充分发挥了数据要素的倍增和乘数效应,实现了更高效的业务流程。
谈起AI 手机,社会大众虽对发展方向认可,但也会担心隐私安全等问题;也有不少人认为这一概念过于超前,质疑其是旧瓶装新酒,就像当初的元宇宙、区块链这些概念一样是一时热度。
相关专家预测,AI手机要全面重塑手机行业,让社会充分接受,至少需要 5 到 10 年时间。
站在手机厂商的角度来看,这无疑是一场迁延日久的超级长跑。
要想时刻站在AI手机浪潮的最前沿,手机厂商们不仅需要大模型厂商保持最领先的AI技术,还需要他们保持最稳定的基础设施供应。大模型训练和分发的关键基础设施就是云。
火山引擎同样是AI时代最好的云。
云基础设施的关键挑战集中在集群管理复杂度、网络性能、稳定性等方面。而火山引擎恰好可以提供稳定的基础设施能力。
在超大规模算力集群方面,它支持万卡集群组网、2K、4K、8K 集群、Eflops 算力资源;在高性能网络方面,它做到全球一张网、3.2Tbps RDMA 网络、二层三层灵活组网以及自研BCC 拥塞算法;在智能运维方面,它能做到故障主动发现、秒级、毫秒级监控、分钟级故障检测和发现等能力。此外,火山引擎还能提供多芯、多态的 AI 基础设施。
目前,火山引擎的多项能力已在与华硕、OPPO、vivo 等企业的合作实践中得到成功验证。
针对 OPPO 在大模型落地中遇到的模型时效性、意图识别能力差等问题,火山引擎凭借字节内部各项先进的大模型能力,与 OPPO 针对 AI 手机能力进行共同研发,在 2024 年新推出的 OPPO Find X7、一加 Ace 等全新机型上推出了各种 AI 智能体应用,包括【AI 面试官】、【AI 英语老师】、活泼可爱女生【小晴】、成熟稳重【文锋】,全面提升了 OPPO 手机在市场上的AI竞争力。
借助火山方舟平台,vivo 也已完成蓝心 7B 大模型的在线服务创建、部署上线、在线推理等工作,为开发者提供了完善的平台工具。而且,vivo 依托开放的大模型生态,支持了蓝心 7B 大模型的推广和应用。
AI 手机市场的发展注定是“长坡厚雪”。
在这场长达 5 到 10 年的长跑中,谁能与技术领先和生态稳定的伙伴保持长久合作,谁就更有机会一直跑在AI手机的第一梯队。
免责声明:图文源自互联网,分享行业发展动态,不作任何商业用途,如有侵权,请联系删除。内容仅供阅读,不构成投资建议,请谨慎对待。投资者据此操作,风险自担。