边缘计算产业链前瞻

发布于: Android转发:1回复:0喜欢:4

现如今AI正在全面重构科技产业,以微软谷歌等为代表的国际科技巨头加紧布局多模态大模型,以英伟达AMD等为代表的芯片巨头主导云端AI算力芯片市场。

在大模型和算力的底层技术不断完善的同时,AIGC带动应用端革命,人工智能赋能千行百业,大模型部署在边缘侧与移动端成为必然趋势,边缘AI正成为各家科技巨头抢占的下一块高地。

边缘计算及边缘AI概述

边缘AI

边缘AI(本文指AI on edge)是智能化发展的趋势,是边缘计算和人工智能的结合。

边缘AI是指在边缘部署AI模型,可以在没有网络连接的情况下对数据进行处理,具有低延迟、高速处理数据的显著优势。

以往很多难以在云端进行数据处理的场景,如工厂机器人、自动驾驶等,都可以通过边缘AI迎来新的技术和应用场景突破。

以智能工厂为例,边缘AI可以对来自监控摄像头和传感器的大量多模态数据进行可视化和评估,可以用它来检测生产线上人类可能忽略的故障数据。

AI浪潮下终端对AI算力需求大幅提升,边缘AI叠加边缘计算和AI的双重优势,是未来终端真正能够像使用水、电一样使用AI的重要方式,有望加速万物智能时代的到来。

边缘AI发展历程

云计算

云计算(cloud computing)是分布式计算的一种,指的是通过网络“云”将巨大的数据计算处理程序分解成无数个小程序,然后,通过多部服务器组成的系统进行处理和分析这些小程序得到结果并返回给用户。

云计算早期,简单地说,就是简单的分布式计算,解决任务分发,并进行计算结果的合并。因而,云计算又称为网格计算。

通过这项技术,可以在很短的时间内(几秒钟)完成对数以万计的数据的处理,从而达到强大的网络服务。

2005年云计算的提出和广泛应用改变了人们的生产和生活方式,云计算数据中心具有超强计算能力,能够集中式解决计算和存储问题。

边缘计算

然而随着物联网的快速发展和4G、5G无线网络的普及,网络边缘设备数量迅速增加,该类设备所产生的数据已达到泽字节(ZB)级别。

以云计算为核心的集中式数据处理的模式在数据处理能力、网络传输带宽负载量、个人隐私保护等多方面已难以满足边缘产生的庞大数据处理需求。

根据Gartner的预测,2025年将有75%的数据产生在数据中心和云之外的边缘侧。以边缘计算模型为核心的面向网络边缘设备所产生海量数据计算的边缘式大数据处理应运而生。

边缘计算是指在尽可能靠近数据源或终端的地方捕获和处理数据。通过在数据源的物理位置附近放置服务器或其他硬件来处理数据。

在本地完成处理而不是在云端或集中式数据中心,它能最大限度地减少延迟和数据传输成本,允许实时反馈和决策。

相较于集中式大数据处理的云计算,边缘计算更适应大数据处理时代的数据特征。边缘计算模型将原有云计算中心的部分或全部计算任务迁移到数据源的附近执行,包括数据存储、处理、缓存、设备管理、隐私保护等。

在当下万物互联时代,互联网设备的感知数据迅速增加,数据类型丰富多样,用户对数据处理的实时性要求较高。

未来边缘计算将和云计算相互补充、相互连接,将部分原有云中心的计算任务迁移至边缘能够极大提高数据传输性能,保证处理的实时性,降低云计算中心的负载。

云计算和边缘计算的主要区别在于处理所在的位置。边缘计算,处理发生在网络边缘,更靠近数据源,而云计算,处理发生在数据中心。

边缘计算发展历程:边缘计算的历史可以追溯到上世纪90年代,当时内容分发网络(CDN)充当分布式数据中心。但CDN仅限于缓存图像和视频,而不是海量数据工作负载;

2000年左右,智能设备的爆炸式增长给现有IT基础设施带来了压力,诸如点对点(P2P)网络的发明减轻了这种压力,在这种网络中,计算机无需通过单独的集中式服务器计算机即可连接并共享资源;

10年代,大公司开始通过公共云向终端用户出租计算和数据存储资源;2020年后,边缘计算融合了CDN的低延迟能力、P2P网络去中心化平台以及云的可扩展性和弹性,共同构建了一个更高效、更有弹性和更可靠的计算框架。

边缘计算特征:边缘计算通常指部署在设备本地的算力或者离用户距离较近的数据中心中的计算算力,拥有可定制化、低成本、低时延、高安全性与隐私性四大特征。

AI浪潮催生边缘AI需求

AI进入iPhone时刻,产品形态和应用边界不断拓宽,市场空间广阔。2023年初,ChatGPT因其强大的语言理解和文本生成能力火速出圈,引发市场强烈关注和热议。

AI可以赋能革新生产力,实现工作和生产效率的提升,其产品形态和应用边界不断拓宽,即可以对传统行业实现改造颠覆,也可以创造全新商业模式,在各行各业均有广阔的发展前景。

随着越来越多的巨头布局AI,越来越多的AI应用落地,AI产业进入“iPhone时刻”。根据艾瑞咨询测算,2022年我国人工智能产业规模达到1,958亿元,预计到2027年产业规模将达到6,122亿元,2022-2027年CAGR为25.6%。

根据华为云AI领域首席科学家、国际欧亚科学院院士田奇的预计,2026年人工智能行业渗透率将达到20%。

边缘AI发展趋势

受益于软硬件技术的不断发展进步,边缘AI大规模商业化趋势日渐明晰

在边缘部署AI模型受益于三方面技术:神经网络的成熟、计算基础架构的进步和物联网设备的采用。

神经网络的成熟:神经网络和相关的AI基础架构已发展到能够实现通用机器学习的程度。企业机构正在学习如何成功训练AI模型,并将其部署到边缘的生产中。

计算基础架构的进步:在边缘运行AI需要强大的分布式计算力,当前已经在使用最先进的高度并行GPU来运行神经网络。

物联网设备的采用:物联网的广泛采用推动了大数据的爆炸式增长。企业能够从工业传感器、智能摄像机、机器人等采集各个方面的数据。5G的发展也能够提供更快、更稳定和更安全的连接进而推动物联网。

IBM5月份发表的一项研究表明中,94%的受访高管表示,他们的企业机构将在未来五年内部署边缘计算。

物流问题、工人短缺、通货膨胀和疫情所造成的不确定性正困扰着企业,而边缘AI解决方案可以作为人与机器之间的桥梁,实现预测、工人分配、产品设计和物流的改进。

受益于软硬件技术的不断发展进步,边缘AI大规模商业化趋势日渐明晰。

日前,OpenAI宣布推出官方iOS应用,高通微软Microsoft Build开发者大会上达成合作关系,将面向消费级和企业级终端、以及工业设备,规模化扩展AI能力,为用户带来行业领先的AI体验。

AI大模型加速迭代,平民化趋势有望助力边缘AI需求释放

过去几年,国内外的AI厂商均在大模型领域有所布局并持续迭代。ChatGPT的发布,掀起了新一轮发展热潮,原有厂商基于自身大模型开始推出一系列生成式AI应用,并对外提供API接口。

2023年6月14日,OpenAI发布了ChatGPT的重大更新,其中不仅包括不断加速迭代的AI大模型,同时还宣布降低成本。通过不断提高系统效率,OpenAI将原始版本GPT-3.5-turb的价格降低25%。

OpenAI的text-embedding-ada-002(文本嵌入模型之一)的定价也有所降低,每1000个tokens的价格为0.0001美元,比之前的价格降低了75%。

在技术进步的推动下,AI大模型正逐渐平民化,终端逐渐能够以较低的价格获得高品质AI服务,助力边缘AI市场需求的快速释放。

在硬件设备方面,英伟达高通等公司为边缘AI的部署的升级提供支持

英伟达宣布将在2023年上海国际嵌入式展中,展示适用于自主机器和很多其他嵌入式应用的英伟达Jetson边缘计算平台。

这是基于Jetson Orin NX/ Orin Nano开发的无人机机载平台和小型化机器人主控平台,可应用于智能制造、智慧城市、自动驾驶等多个领域。

在此之前,英伟达就在边缘计算模组领域布局了多款产品,为边缘AI未来的部署和升级提供支持。

2022年底,高通正式发布了新的旗舰产品骁龙8Gen2处理器,其搭载的全新专用AI加速计算Hexagon处理器的人工智能性能提高了4.35倍,可以通过识别图像的哪些部分是脸、头发、衣服、背景等来提高照片质量。

2023年5月,高通高级副总裁AlexKatouzian表示,高通作为全球最大的智能手机处理器制造商,正在从通信公司转型成为一家“智能边缘计算”公司,认为人工智能(AI)的未来将需要比云计算本身更强大的计算能力。

边缘AI市场规模

边缘计算市场规模仍处快速扩张期

根据STL Partners边缘计算关键数据统计,2030年全球边缘计算潜在市场规模将达到4450亿美元,10年复合增长率为48%。

根据亿欧智库发布的《2022年中国边缘计算产业研究报告》,2021年我国边缘计算市场规模已经达到427.9亿元,预计2021-2025年中国边缘计算产业市场规模年复合增速有望达到46.81%,2025年边缘计算市场整体规模达1987.68亿元。

边缘AI芯片组市场规模有望超越云AI芯片组

将AI部署到终端目前仍以芯片的方式为主,据中商情报网,随着人工智能技术日趋成熟,数字化基础设施不断完善,人工智能商业化应用将加落地,推动AI芯片市场高速增长,预计2025年全球人工智能芯片市场规模将达到726亿美元。

根据全球技术市场咨询公司ABI Research的数据显示,预计到2025年,边缘AI芯片组市场的收入将达到122亿美元,云AI芯片组市场的收入将达到119亿美元,边缘AI芯片组市场将超过云AI芯片组市场。

边缘AI典型应用

英伟达:以Omniverse为核心的的具身智能路径

英伟达边缘AI自下而上突破的具身智能路径已经打通,结合云计算可以在边缘AI从开发到部署的各个环节提供丰富技术支持。NVIDIA选择微软Azure作为Omniverse Cloud的首家云服务商。

微软Azure将能支持企业在享有Azure云服务的规模分析特性与安全性的同时,访问全套Omniverse软件应用及NVIDIAOVX™计算系统。

为客户提供了一套可用于设计、开发、部署和管理工业元宇宙应用的全栈式云环境和平台功能,连接并使用NVIDIA合作伙伴生态系统的相关产品,如英伟达认证工作站、边缘计算模块等。

NVIDIA Isaac是专为机器人开发和AI打造的加速平台,AMR移动机器人平台率先落地。

英伟达Isaac平台从预训练模型开始,通过Isaac Replicator中生成的合成数据进行增强,并使用NVIDIATAO进行训练,从而实现目标性能;

利用本地和云端提供的NVIDI AIsaacSim创建物理精准的逼真环境,以开发和测试与机器人运行相关的各个方面;

利用NovaOri节省时间,并使用硬件加速SDK将AI带入到基于NVIDIA Jetson的机器人,例如用于基于ROS的机器人的Isaac ROSGEM、用于视频流解析的NVIDIA Deep StreamSDK、用于自然语言处理的NVIDI ARiva;

通过EGXFleet Command和Isaacfor AMR(包括Metropolis、CuOpt和DeepMap)管理机器人编队以优化生产力。

IsaacAMR是用于模拟、验证、部署、优化和管理自主移动机器人车队的平台,包含了边缘到云的数字孪生训练、软件服务、计算以及一套参考传感器和机器人硬件,可加快AMR的开发和部署速度,减少成本和缩短产品上市时间。

IsaacAMR建立在NVIDIA NovaOrin参考架构的基础。NovaOrin包括立体相机、鱼眼相机、2D和3D激光雷达在内的多个传感器与系统模块集成在一起,支持先进的AI和硬件加速算法,提供275TOPS的实时边缘计算性能。

同步和校准的传感器套件为实时三维感知和绘图提供了传感器的多样性和冗余性。用于记录、上传和重放的云原生工具使调试、地图创建、训练和分析变得容易。

高通:云边一体的混合AI路径

高通提出云边一体的混合AI路径,深度开发边缘AI,云端AI选择与微软等公司合作。

高通混合AI白皮书,在混合AI场景中,边缘大模型是云端大模型的感知器官,例如用户对手机说话,自动语音识别(ASR)AI模型如Whisper在设备上转换语音为文本,发送到云端,云端运行大模型,回发文本答案。

在进阶版本中,设备AI更进一步保护隐私,承担更多处理,提供更个性化的提示给云:通过设备学习和个人数据,设备创建用户个人形象,与调度程序协作,基于上下文提供更好的提示;

例如,用户要求手机预约和朋友在最爱餐厅吃饭,对简单查询,较小的大模型可在设备上运行无需云交互,如果用户需要复杂信息,则本地将需求转化为提示发给云端大模型并返回详细答案。

高通混合AI白皮书,混合AI主要有以下优点:

经济性:降低云端推理成本、高效利用边缘算力、降低AI应用开发门槛;能耗低:边缘设备可以以较低能耗运行大模型,若考虑处理和数据传输等因素,能耗节约更加显著;

可靠性:边缘AI不受网络状况影响,运行更加稳定;隐私性:数据完全在本地推理,大幅降低泄密风险;个性化:边缘设备可以搜集用户真实生活中的行为、价值观、痛点、需求、关注问题等信息形成定制化服务。

软件端:高通AI开发栈已经发布

高通AI开发栈支持主流AI框架,如TensorFlow、PyTorch、ONNX和Keras,以及TensorFlowLite、Tensor Flow LiteMicro、ONNXruntime等运行时。

它还包括推理软件开发工具包(SDK),如备受欢迎的Qualcomm®神经处理SDK(适用于Android、Linux和Windows)。开发人员库和服务支持最新的编程语言、虚拟平台和编译器。

在较低的层次上,高通AI开发栈系统软件包括基本的实时操作系统(RTOS)、系统接口和驱动程序。

高通AI开发栈在不同的产品线上提供丰富多样的操作系统支持,包括Android、Windows、Linux和QNX,以及Prometheus、Kubernetes和Docker等部署和监控基础设施高通AI开发栈还包括AIStudio。

支持从设计到优化、部署和分析的完整大模型工作流,将所有工具整合到一个图形用户界面中,并提供可视化工具,简化开发人员的体验。

使他们能够实时查看模型开发情况,包括AI模型效率工具包(AIMET)、AIMET模型仓库、模型分析器和神经架构搜索(NAS)。

硬件端:高通Hexagon Processor核心。高通Hexagon Processor采用全新的架构以及专用的供电系统,在AI推理方面增加了特殊的硬件来改善组卷积、激活函数加速。

将张量加速器的性能提升一倍,采用独特的方法将复杂的AI模型分解为微块(MicroTile)以加速推理过程,标量、向量和张量加速器可以同时工作,无需每次都涉及内存,从而节省功耗和时间。

此外还通过物理桥梁实现了与Hexagon的无缝多IP通信。这种连接可以驱动高带宽和低延迟的用例,例如认知ISP或在游戏场景中提高低分辨率。

高通Hexagon Processor成功地将多个深度学习模型从FP32转换为INT4,最高降低60%能耗同时增长90%性能。高通已有Stablediffusion模型落地案例,未来大模型AI边缘部署规划清晰。

2023年2月,高通利用高通AI软件栈(Qualcomm AIStack)执行全栈AI优化,首次在Android智能手机上部署StableDiffusion。

2023年5月,高通发布混合AI白皮书,预计2023年边缘AI覆盖10亿参数以下的各类模型。

中科创达:大模型+大平台的软硬一体化发展

2023年5月18日,中科创达发布Rubik大模型,是国内首个边缘AI终端统一操作系统的雏形,同时中科创达还与亚马逊云科技共同成立人工智能联合创新实验室,并展示了TurboX模组、智能音箱参考设计、Rubik Genius Canvas等一系列创达魔方产品。

据公司2022年报,公司自成立以来,一直在端侧、边缘侧、云端技术进行沉淀和积累,目前已成为上述领域全球领先的技术厂商。

公司的机器人产品覆盖了当下几乎全部的机器人场景以及全球众多机器人厂商。公司与产业链的技术和产品的头部企业保持深度的合作,构建了生态的卡位优势。

公司在边缘AI的软件端拥有大模型,硬件端深耕高通亚马逊等科技巨头的生态,软硬一体化的发展路径极具潜力。

横向看:中科创达Rubik围绕现有业务构建AI生态

Rubik大模型系列核心产品为Rubik Language语言大模型,董事长预计2024年时将达到ChatGPT3.5水平。

Rubik Edge、Rubik Multi-Modal以及预计2027年推出的Rubit Robot均将服务于智能手机和智能驾驶领域,提升人机交互体验。

与此同时,Rubik系列围绕人机交互和现有业务搭建生态:Rubik Studio、Rubik Auto、Rubik Device和Rubik Enterprise

在拥有能力强大的大模型同时,也会把大模型变成各种各样的中小模型,以满足各类场景和知识的拆分、提高与客户的适配性。

谷歌类似,中科创达Rubik大模型有望首先落地机器人。在众多智能硬件产品中,中科创达的机器人产品可覆盖各种不同的应用场景,并已助力全球众多机器人厂商实现了产品的量产落地。

基于在机器人领域的深厚积累,中科创达将智能音箱与机器人进行融合,并通过Rubik大模型的不断训练,已经实现了能够自由对话的智能销售机器人,可以自主回答客户关于企业及产品的各种问题。

纵向看:中科创达AI应用生态整装待发

中科创达Smartto Intelligent战略开启,实现从智能应用为中心到模型驱动的机器与机器、机器与人交互的全新智能世界。

Rubik大模型将与公司现有的智能汽车和物联网业务整合,并通过私有化部署和系统调优来满足各行业需求。

公司有望通过大模型持续优化,将机器人变为现实,并在未来智能计算行业的toBtoC领域中发挥核心竞争优势。

RUBIK Auto:汽车实质是一个机器人,车厂对于汽车大模型主要有以下三类需求,第一是端侧运行,端侧的体验、数据、性能是最好的,也是最能保护客户隐私,但硬件需求更高;第二是私有云+Plugin,可以灵活调优;第三类是多种开放模型共存。

公司的RUBIK Auto将支持客户私有化部署(已经与海外头部车厂合作,基于公司模型做POC研发)、也支持模型量化、剪裁,进而适配各类芯片,灵活与车厂对接。

RUBIK Device:在智能硬件中,只要涉及大计算的产品,创达的份额领先的智能硬件原来部署操作系统可以直接加入AI,一旦AI沉淀到边缘侧,意味着智能硬件变成机器人,就会形成场景的中心。

无论是家庭的场景、楼宇的场景、工厂的场景都可以通过边缘化部署使得等每一个场景都成为智能中心。

RUBIK Enterprise(企业版):中科创达的明显优势之一是国际化,公司在全球15个国家和地区拥有研发中心和团队。公司会通过本地化做部署,支持客户的私有化部署;

公司的明显优势之二是软硬件一体,无论是推理还是训练,公司对整个底层的平台都非常了解,因为不管是AI框架,还是说开源的其它框架,本质上是操作系统里面的一部分,无论是数据并行,还是模型并行,公司认为都是一个个中间件。

这些明显的优势,能够让我们最终把模型性能、效率做到最优,把模型的规模做到最佳,能够在边缘侧运行起来,为千行百业赋能。

RUBIK Studio:基于公司对操作系统的深刻理解,公司把操作系统的每一段分化、模型化,积累过去几千个成功发布的Package、几千亿行的代码累积、以及长期开发的经验积累,将安卓知识变成巨大知识库,发挥巨大的价值。

Rubik Studio将会是未来改变整个的一个大的工具和环境。用户可以通过Rubik Studio直接将便捷快速地进行PC应用、手机应用、网站相对功能封闭的开发等。

华为:IEF+高斯数据库全面覆盖边缘AI场景

华为智能边缘平台IEF是基于云原生技术构建的边云协同操作系统,可运行在大量异构边缘设备上,并以轻量化的方式将丰富的AI、数据分析、中间件等应用从云端部署到边缘,满足用户对智能应用边云协同的业务诉求。

IEF具有可以将华为云AI/大数据的能力延伸到边缘,支持视频智能分析、文字识别、图像识别、大数据流处理等能力,就近提供实时智能边缘服务;

支持容器和函数两种运行方式,满足用户轻量化应用管理的诉求;原生支持kubernetes与docker生态,应用快速启动、快速升级;支持Python、NodeJS等函数引擎,快速响应边缘的事件;此外还有兼容性优、安全可靠等特点。

华为高斯数据库是华为基于open Gauss DB自研生态推出的企业级分布式关系型数据库,具备企业级复杂事务混合负载能力,支持分布式事务强一致,同城跨AZ部署,数据0丢失,支持1000+扩展能力,PB级海量存储。

同时拥有云上高可用,高可靠,高安全,弹性伸缩,一键部署,快速备份恢复,监控告警等关键能力,能为企业提供功能全面,稳定可靠,扩展性强,性能优越的企业级数据库服务。

2023年6月7日,华为高斯将召开数据库加速金融核心业务升级发布会。

边缘AI产业链

产业链构成

边缘AI产业链可分为上游载体供应商、中游运营服务商和下游行业用户。

上游载体供应商主要包括边缘AI芯片、算力模组、边缘网关、服务器、控制器等基础硬件设施厂商,以及AI算法、操作系统、边缘计算平台、安全等软件供应商。

中游主要提供业务运营和边缘服务,业务运营商以电信运营商为主,服务提供商包括系统集成和应用开发两个方向。

下游面向产业和消费物联网用户,应用于智能家居智能汽车、智慧零售等行业,其中公用事业、互联网、政府和能源需求相对迫切。

上游:硬件设备商和软件供应商有望率先受益

边缘载体供应商旨在让边缘智能有可运行的软硬件载体,边缘业务运营商拥有这些软硬件载体并运营,服务提供商在此基础上根据用户业务需求推出对应的服务,最终共同为用户提供服务。

由于当前边缘AI仍处于发展扩张期,下游厂商的终端产品还在加速探索中,因此上游软硬件厂商有望率先获益。

下游:应用领域

边缘AI可应用场景遍及智能家居、智能工厂、智能交通等多领域

智能家居

边缘AI为用户带来更加智能、便捷、安全和个性化的智能家居体验。当前的智能家居主要还是采用Wifi模块连接到云计算中心的做法。

在AI大模型的迅猛发展下,未来智能家居结合AI大模型的需求会越来越高,对算力需求明显提升的同时也需要兼顾低延时、隐私保护等问题,边缘计算模型有望成为组建智能家居系统的最优平台。

边缘AI通过对智能家居设备和传感器收集的数据进行实时分析和处理,实现更加智能和个性化的智能家居体验。

比如可以通过对智能家居中温度、湿度、光线、声音等传感器数据的分析,实现实时的环境监测和自动化控制,提高家居的舒适性和安全性。

边缘AI可以通过对智能家居设备进行实时监测和故障诊断,提高设备的可靠性和可用性。

边缘AI还可以通过对用户行为和偏好的分析和学习,为用户提供更加个性化和智能化的服务。

智能工厂

边缘AI可以克服企业数字化难点,帮助企业实现更加智能、高效和可持续的生产。智能工厂需要处理大量的数据和传感器信息,以便实时监测、分析和优化生产线的运转。

边缘AI可以在设备本地处理数据,减少数据传输和响应时间,提高数据安全性,并在网络不可靠或不稳定的情况下保持运行稳定性。

边缘AI还可以通过对设备进行实时监控和故障诊断,提高设备的可靠性和可用性,并且可以通过对设备和生产线的数据进行分析,优化生产过程,提高生产效率和质量。

例如,通过对物联网传感器收集的数据进行分析,可以实现实时的生产线监测和预测性调度,优化生产线的运行,避免生产过程中的瓶颈和浪费。

智慧交通

边缘AI能够帮助交通系统实现更加智能、高效和安全的运行。边缘AI通过对交通信号灯、路况监测、车辆识别等设备和传感器收集的数据进行实时分析和处理,实现实时的交通监测和智能化的交通控制。

边缘AI可以通过对车辆和行人的行为进行实时监测和预测,提高交通系统的安全性和可靠性。

例如,通过对交通信号灯、路况监测、车辆识别等设备和传感器收集的数据的分析,实现实时的交通事故预测和避免,提高道路安全性和交通系统的可靠性。

边缘AI还可以通过对交通系统数据的分析和学习,实现更加智能化的交通信息服务和个性化的出行方案推荐。

除以上领域,边缘AI在医疗健康、城市管理、零售物流等多领域均有广泛的应用前景,边缘AI的应用有望提高社会、企业及个人的生产质量和效率,促进社会整体智能化发展。

相关公司

科大讯飞

科大讯飞成立于1999年,创立初期便聚焦AI技术,目前在智能语音、机器翻译、自然语言理解、知识图谱、机器推理等多技术领域均处于国际领先水平。

大模型时代,公司发布星火大模型,继续保持算法端的领先地位。公司背靠中国移动及中科院,管理层持股稳定,业绩长期保持稳定增长。2008-2022年公司营收、归母净利润复合增速分别为36%、16%。

公司在5月6日领先发布星火大模型,首发便在多个模型榜单中排名居前。5月31日,公司被信通院授予大模型工作组副组长单位荣誉,6月20日率先通过网信办大模型算法备案,模型实力得到强力背书。

1024开发者节上公司披露,经历多轮升级之后,公司目标在2024上半年全面对标GPT-4。我们判断,公司在模型算法维度已经构筑了较为深厚的技术壁垒,在模型维度、应用赋能维度均具备较为明显的竞争优势。

AI产品多场景落地,打开未来成长空间。公司作为人工智能龙头公司,在教育、医疗、办公等领域深耕多年,具有丰富的行业人才储备及AI产品化经验。

基于行业Know-how、研发实力、人员架构上的多重优势,公司在星火大模型行业应用上产品落地迅速。

0506大模型发布会之后,公司持续发布教育、办公、智能驾驶、医疗、数字员工、工业等多场景应用,教育、办公类产品销量持续领先双11购物节,销售额同比增长126%,实现AI应用率先落地,未来有望获得更大的成长空间。

浪潮信息

公司深耕服务器行业二十载,通过“硬件重构+软件定义”的算力产品和解决方案、构建开放融合的计算生态,为客户构建了满足多样化场景的智慧计算平台;公司通过创新的JDM模式与客户深度融合绑定,在疫情期间保持了收入的稳健增长和毛利率的稳定。

GPT大模型的推出和持续迭代引发全球生成式AI发展的大浪潮,各大巨头纷纷进行大模型的训练,驱动训练算力需求的持续高涨,短期全球范围内训练芯片供不应求。

公司作为全球AI服务器行业龙头,在核心元器件的供应上具备一定的优势,有望持续获益于下游需求的扩张,同时AI服务器均价往往高于x86服务器,公司毛利率水平也有望持续提升。

在产品端,公司在AI计算等领域发布的M6超大规模数据中心AI服务器已打破165项SPEC世界性能测试纪录;

在生态端,公司携手智源研究院推出了一站式、高质量开源项目FlagAI,打造了大模型本地化开发方案;

在温控端,公司积极布局液冷生产线,亚洲最大液冷研发生产基地“天池”年产能达10万台,实现了业界首次冷板式液冷整机柜的大批量交付。

芯原股份

公司拥有VPU、NPU等一系列用于视频处理+边缘计算的IP。公司客户包括Movidius、AXIS、RealTek、海康、大华、富瀚、瑞芯等海内外视觉龙头企业。

芯原股份宣布与微软就Windows10IoT企业版操作系统开展合作,内容包括硬件加速器以及功能强大的嵌入式平台支持。

公司深耕GPU产品线,图形类GPUIP得到广泛应用,客户包括NXP等芯片龙头;NPUIP可提供从低功耗嵌入式设备到高性能服务器的计算能力,已经进入博世等国内外知名公司。

此外公司还在积极布局L4自动驾驶平台的AI应用芯片的研发,在国内处于领先地位。

加入UCIe联盟,积极推进Chiplet产业化进程。公司于2022年4月加入UCIe联盟,致力于推动Chiplet技术的落地。

公司目前已推出基于Chiplet架构所设计的12nmSoC版本的高端应用处理器平台,并已完成流片和验证。

目前公司已与全球主流的封测厂商和芯片制造厂商建立合作,依托公司丰富的处理器IP以及领先的芯片设计能力,公司有望成为全球第一批面向客户推出Chiplet商用产品的企业。

2022全年公司实现营收26.79亿元,同比增长25.23%;实现归母净利润0.74亿元,同比增长455.31%。2022年公司芯片量产业务实现营收12.07亿元,同比增长36.41%,全年公司量产出货芯片数量为118款,均来自公司自主设计。

盈利能力来看,2022年公司毛利率为41.59%,同比上涨1.53pct,其中芯片量产业务毛利率由2021年的15.40%提升至24.18%,同比上涨8.78%。

乐鑫科技

公司成立于2008年。早期优势技术主要体现在“连接”领域,2013年发布的ESP8089单Wi-Fi芯片应用于平板电脑和机顶盒市场;而后迅速切入IOT领域,以MCU为“处理”核心,以Wi-Fi为无线连接的核心,助力公司实现高速成长;

2020年发布的ESP32-S3结合AI语音开发套件,进军智能语音,为公司后续支持AI应用实现布局;2022年公司发布的ESP32-C5全球首款RISC-V构架SoC首次增加5GWiFi6产品线,专为需要高效无线传输的物联网应用设计。

目前,公司业务包括自主研发包含底层操作系统的软件开发框架平台ESP-IDF,并提供了编译器等工具链。即公司为客户提供一站式解决方案,包括芯片、模组、应用软件方案、云连接和APP等。

公司产品早期多应用于智能家居领域,近年来公司进入越来越多的新领域和新客户,包括工业控制、车联网、健康医疗、智慧农业、车联网、智慧办公、能源管理等。

公司开放的生态模式契合AIOT的长尾、多样、碎片的商业形态,下游业务呈现多样化态势。客户方面,公司不仅服务于已经在行业内拥有影响力的品牌大客户,也服务于大量的中小型客户和创业企业。

产品方面,ESP32-S系列自ESP32-S3芯片开始,强化AI方向的应用,ESP32-S3芯片增加了用于加速神经网络计算和信号处理等工作的向量指令,便于AI开发者们实现高性能的图像识别、语音唤醒和识别等应用;

ESP32-C6芯片可为用户提供Wi-Fi6技术的体验;ESP32-C5为公司第一款2.4&5GHz双频Wi-Fi6产品线;ESP32-H系列中ESP32-H2在Wi-Fi和蓝牙技术领域之外又新增了对IEEE802.15.4技术的支持,进入Thread/Zigbee市场,进一步拓展了公司的WirelessSoC的产品线和技术边界。

2022年公司实现营收12.71亿元,YOY8.31%;归母净利润0.97亿元,同YOY-50.95%;毛利率整体维持稳定,2022年综合毛利率39.98%,YOY+0.38pct,其中芯片毛利率为47.28%,YOY-1.66pct。

分产品来看,2022芯片业务实现营收4.06亿元,YOY-26.55%,营收占比31.9%;模组业务实现营收8.54亿元,YOY+5.01%,营收占比67.2%。

广和通

公司于1999年成立,早期作为Motorola无线通信产品中国区分销商,与Infineon战略合作,在2009年推出自主品牌“FIBOCOM”。

2010年至2016年间,公司先后发布3G和4G无线通信模块,奠定了无线支付、智能电网、车联网等物联网行业的领导地位。

2017年公司成功IPO,登录创业板市场。2018年至2020年间,公司积极布局海外研发中心,先后发起多项投资、并购事项,并发布5G通信模块。

2020年至今,公司持续发力车联网业务。2020年公司投资设立锐凌无线,间接收购全球领先的车联网企业Sierra公司汽车前装业务

2021年公司与吉利汽车合资,拓展车载终端业务;2022年,公司收购锐凌无线全部股权,实现对Sierra汽车前装业务的全部控股。

公司产品种类丰富,广泛应用于各类物联网垂直领域。公司主要从事2/3/4/5G、NB-IoT等无线通信模块及其应用行业的通信解决方案的设计、研发与销售服务。

通过集成到各类物联网设备使其实现数据的互联互通和智能化,致力于将可靠、便捷、安全、智能的无线通信方案普及至每一个物联网场景。

公司产品和方案设计兼容性高、拓展性强,能够实现低成本、快速部署物联网连接,广泛应用于移动支付、移动互联网、车联网、智能电网、安防监控、智能家居、智慧城市等物联网领域。

几乎可服务于所有垂直行业的物联网应用。与此同时,公司仍持续加大研发投入,多款5G/4G在研项目高效推进,有望在未来进一步铺开产品布局。

其他相关公司

边缘AI发展相关机遇

边缘AI带来接口芯片用量需求提升

边缘AI需求增长带动AI边缘设备的出货量增加。手机、智能音箱、个人电脑/平板电脑、头戴式显示器、汽车、无人机、机器人和监控摄像头等,都可以算边缘设备,其中均有可能采用边缘AI芯片。

据Tractica/Ovum预测,全球AI边缘设备出货量将从2018年的1.614亿台增加到2025年的26.42亿台,年均复合增长率达49%,保持高速增长。

边缘设备增多、数据用量增多,也使得数据传输量呈指数级上升趋势。各种边缘AI设备需要对输入的原始数据进行处理和分析,并将分析结果实时反馈出去,最后通过网络回传至后端管理平台。

为了适配多种应用场景,并支持如摄像头、键盘和显示器等外围设备,边缘AI设备需要配备多种接口,支持相关数据传输协议。

对于多路摄像头输入的要求较强,就存在对于MIPI接口的大量需求。因此,边缘AI市场规模的扩张,将显著带动接口芯片需求的增长。

边缘AI对物联网模组提出强连接、高算力要求

边缘AI强化物联网模组的连接需求。从数量维度,物联网模组作为底层设施具备不可替代性,每增加一个物联网连接数,通常需要配备1-2个物联网模组。

随着边缘AI在智慧园区、智能家居、工业物联网等领域的应用,有望带动物联网模组市场空间的爆发式增长。

以智慧园区为例,边缘AI的主要功能包括网络连接与管理(传感器、仪器仪表的网络接入)、实时数据的采集与处理(车牌识别、人脸识别)、本地业务自治等,应用场景广泛。

从功能维度,边缘计算模组具备降低网络延迟、提高数据安全性、增强离线可用性等功能,对模组的精细化需求有望拉动价值量提升。

边缘AI的发展对算力提出了新要求。边缘AI需具备在边缘节点上进行数据预处理、提供实时数据分析和决策等功能,预计将推动算力模组需求增长。

算力模组基于SoC芯片开发而成,融合了CPU、GPU、ASIC、FPGA等多种计算单元,具备小尺寸、低成本、低功耗等优势,能够支撑专用场景下的特定需求。

边缘AI拉动下智能控制器有望实现量价齐升

边缘AI相关的产品和应用与智能控制器密不可分

智能控制器是扮演“神经中枢”及“大脑”的嵌入式软件产品。智能控制器作为核心和关键部件内置于仪器、设备、装置或系统中,在其中扮演“神经中枢”及“大脑”的角色,不以终端产品的形态独立工作。

作为边缘AI产业链的重要零部件,边缘AI的应用需要智能控制器实现自主控制和决策。

智能控制器应用场景广泛,边缘AI发展下需求量有望提升

当前智能控制器主要应用于汽车电子、家用电器、电动工具及工业设备、智能家居、健康护理等领域。

汽车电子行业是我国智能控制器产业着重布局的行业之一,市场份额占比达到24%,其次是家用电器和电动工具,占比分别为16%、13%。

由于边缘AI在汽车、家电、工业等领域均具有广泛的应用场景,可以预见随着边缘AI的技术发展和商业落地,下游产业进入智能化时代,终端产品的迭代速度有望持续提升,智能控制器市场空间广阔。

边缘AI助力下一代先进控制,AI+控制器提高产品附加值

传统智能控制器以微控制器(MCU)芯片或数字信号处理器(DSP)芯片为核心部件,主要采用MCU芯片。

微控制器(MCU)芯片是把中央处理器(CPU)的频率与规格做适当缩减,并将内存、计数器、USB、A/D转换、UART、PLC、DMA等周边接口,甚至LCD驱动电路都整合在单一芯片上,形成芯片级的计算机。

AI智能控制器有望引入算力芯片,通过在控制功能的基础上搭载AI功能,实现更为智能的控制能力。

以工业自动化为例,AI智能控制器能够以微秒级精度实时运用装置层的信息,利用超高速、高精度检测出装置上瞬时发生的“反常”状态,实时反映到控制中。

不仅可以监控装置层的趋势,还可以防止高速生产时瞬时发生品质不良的问题。相比传统智能控制器,AI+控制器实现了AI和控制相融合,增加产品附加值。

智能控制器龙头已加大对AI智能控制器的研发力度

目前国内的控制器龙头均已在AI智能控制器进行布局:

拓邦股份:2023年6月9日,公司在投资者互动平台表示,公司通过自研、与第三方合作或客户合作等方式对AI智能控制器进行研究开发,通过对机器视觉和语音识别算法等的研究,已经有多个原型产品进行市场推广,在智能家居、家电等领域实现产品应用;

和而泰:2023年4月3日,公司在投资者互动平台表示,公司的智能化产品涉及智能家电、智能家居、智能穿戴及医疗健康护理领域。

是以智能硬件终端产品为数据传输媒介,通过AI技术进行数据的采集与处理、输出与控制并通过人机交互方式对相关信息进行反馈与修正,通过知识自学习,实现智能化;

同时基于智能化产品控制器及智能硬件产品收集与传输的信息为终端厂商定制化开发相应的设备远程监控、数据统计分析平台,服务于终端厂商。

未来也会加大智能化产品相关的投入,加速市场开拓进度,进一步提升相关业务的收入规模。