策略专题:从硬件、算法、应用角度看ChatGPT浪潮引领AIGC革新投资机遇(上篇)

发布于: 修改于:雪球转发:1回复:1喜欢:0

策略专题:从硬件、算法、应用角度看ChatGPT浪潮引领AIGC革新投资机遇(上篇)

策略专题:从硬件、算法、应用角度看ChatGPT浪潮引领AIGC革新投资机遇(下篇)

特别声明

本订阅号不是东方财富证券股份有限公司(以下简称东财证券)研究报告的发布平台,主要用于转发或摘编东财证券向其客户已发布报告的部分内容及观点。如需了解完整内容,请参见东财证券发布的完整报告。

本订阅号所载内容仅供东财证券客户中的专业投资者参考。因订阅号难以设置访问限制,若您并非前述专业投资者,为控制投资风险,请您取消订阅、接收或使用本订阅号中的任何信息。东财证券不会因为订阅或接收本订阅号内容而视相关人员为客户。

内容摘自:《策略专题:从硬件、算法、应用角度看ChatGPT浪潮引领AIGC革新投资机遇》

发布时间:2023/02/27

证券分析师:曲一平

证书编号:S1160522060001

联系人:陈然

核心观点

🔸ChatGPT对AIGC产业生态的硬件层、算法层和应用层带来革新。ChatGPT全面激活深度学习和人工智能需求,根据Precedence Research预测AI市场规模有望10年10倍以上。GPT-3每训练一次需要使用由1万个V100GPU训练13天。(GPT-3披露单次训练需要3.114x10^23FLOPS花费460万美元,等于单V100GPU运行355年)

🔸生成式AI模型在硬件层依赖高性能芯片和云计算数据中心提供算力支持。CPU领域如海光信息、海思半导体、龙芯中科、上海兆芯;GPU领域例如景嘉微,海光信息等。FPGA领域例如安路科技复旦微电紫光国微等;ASIC芯片如寒武纪澜起科技等;光模块领域如德科立天孚通信中际旭创;Chiplet领域如兴森科技长川科技方邦股份等。云计算成为降低AIGC硬件成本突破口,设备商例如紫光股份、联想、中兴通讯锐捷网络等:算力散热相关英维克高澜股份:云计算如阿里巴巴腾讯奥飞数据数据港等。

🔸算法层对自然语言处理(NLP)、计算机视觉(CV)、AI大模型等高效算法需求长期大幅提升。自然语言处理主要应用于机器翻译、舆情监测、自动摘要、观点提取、文本分类、问题回答、文本语义对比、语音识别、中文OCR等,参与者如科大讯飞海天瑞声拓尔思汉王科技等;计算机视觉主要用于图像识别、图像分类、视频标记和虚拟助手如万兴科技虹软科技海康威视;预训练大模型的出现提供了通用化解决方案,实现AI模型在更统一、简单的方式下规模化生产,参与者如微软谷歌百度、华为等。

🔸终端应用层未来有望在多个行业呈现井喷式革新。如传媒业推动广告媒体稿件生产爆发,助力营销,如分众传媒芒果超媒哔哩哔哩兆讯传媒等;赋能游戏行业降本增效、丰富文艺创作,如恺英网络三七互娱吉比特完美世界;赋能影视剧本创作,如光线传媒华策影视、凌云开等;赋能零售金融、智能客服、智能投顾等场景如同花顺、江苏银行;提升在线教育效率新东方粉笔、网易有道云等;赋能互联网电商广告投放与用户搜索如京东、拼多多、淘宝;助推直播业扩张如抖音、快手、淘宝直播。传统软件领域如金山办公、用友网络、金蝶国际也获得革新。赋能智慧城市领域打造数字经济载体如易华录、海能达、旋极信息;推进智慧医疗领域严肃医疗和精准医疗的AI平台如平安健康、九峰医疗、医渡科技。

风险提示

ChatGPT-3升级迭代不及风险

人工智能道德风险

AIGC终端应用市场占有率提升不及预期风险

1. ChatGPT:自然语言处理领域新突破

1.1.自然语言处理技术的未来:认识ChatGPT

1.1.1.ChatGPT:功能强大的聊天机器人

ChatGPT是美国OpenAI公司开发的一款智能聊天机器人,于2022年11月30日正式开放使用。作为一款基于GPT-3代开发的全新聊天机器人模型,ChatGPT能够通过学习和理解人类的语言来进行对话,能够根据聊天的上下文进行互动,协助人类完成撰写文章、制定商业提案、创作故事以及编写代码等一系列任务。AIGC即AI Generated Content,是指利用人工智能技术来生成内容。

ChatGPT基于谷歌2017年发布的Transformer架构,通过在大量文本数据上的预训练,使用预测词汇的方式进行自然语言处理学习。由于其庞大的预训练数据量和强大的模型深度,ChatGPT具有出色的语言生成能力。同时,该模型基于GPT-3.5架构的大型语言模型构建,使用人类反馈的强化学习训练进一步增强机器学习的效果,因此ChatGPT在交互中展现出高度拟人化的特征。

据OpenAI介绍,与语音助手相比,ChatGPT实现了能够理解复杂语句内容、联系上下文理解语境以及自动拒绝执行不合法指令的重要突破,这意味着ChatGPT已经实现围绕某一话题与自然人展开讨论的可能,超越了语音助手所能实现的范围,这也是ChatGPT一经推出便引发广泛讨论的重要原因。

1.1.2.ChatGPT用户爆发式增长,应用场景广阔

ChatGPT于去年11月30日正式上线,上线后仅用5天突破百万用户;上线2个月后,用户规模已突破1亿,成为史上用户增长速度最快的消费级应用程序。根据SensorTower,TikTok达到1亿用户用了9个月,Instagram则花了两年半(30个月)的时间。数据显示,1月期间,ChatGPT平均每天大约有1300万独立访客。近日,由于访问量激增,网站服务器出现拥挤,公司正在优化系统。

据官网文档介绍,ChatGPT的功能包括搜索问答、文本分析和生成、代码生成和分析、内容创作、推理对话等各个文本处理场景,官网提供了ChatGPT能完成的49项任务示例,涵盖科研、教育、广告、办公、文艺创作等多个领域。在社交网络上,各种与ChatGPT的有趣对话广泛传播,有人将ChatGPT比喻为“搜索引擎+社交软件”的结合体,能够在实时互动的过程中获得问题的合理答案。

ChatGPT对传统小模型分析型人工智能机器人概念的颠覆促使其迅速走红,国内外科技巨头及产业龙头纷纷宣布布局。国内搜索引擎巨头百度宣布将于3月在中国推出人工智能聊天机器人“文心一言”(ERNIEBot),被认为是国内最有可能对标ChatGPT的产品,上线后首站将直接接入百度搜索。百度表示,公司在人工智能四层架构中已有全栈布局,包括底层芯片、深度学习框架、大模型以及上层搜索等应用,文心一言位于模型层。

阿里达摩院也正研发类似ChatGPT的对话机器人,目前已进入公司内部员工测试阶段,或将人工智能大模型技术与旗下智能移动办公平台钉钉生产力工具深度结合。此外,京东于2月10日宣布,京东云旗下言犀人工智能应用平台将整合过往产业实践和技术积累,推出产业版ChatGPT,命名为“ChatJD”,以1个平台、2个领域、5个应用作为落地应用路线图。

在海外,微软于2月8日宣布推出由ChatGPT支持的最新版本人工智能搜索引擎必应和Edge浏览器。几乎同时,谷歌紧急宣布人工智能对话式机器人“ApprenticeBard”(吟游诗人)正在内测,并在未来几周内整合至搜索引擎中,向大众提供服务。

1.2.ChatGPT的创始公司:OpenAI

1.2.1.OpenAI的历史与产品

OpenAI是一家人工智能研究实验室,总部位于美国加利福尼亚州。公司由ElonMusk、SamAltman和其他知名技术领袖及投资者于2015年创立,成立初期为一家非营利性研究机构。成立目标为开发人工智能技术并将其应用于各种行业领域,推动人类进步,组织目标是通过与其他机构和研究者的“自由合作”,向公众开放专利和研究成果。2018年,ElonMusk离开公司董事会,转变为赞助者和顾问。2019年,OpenAI划分出盈利子公司OpenAILP,同年接受来自微软公司的10亿美元投资,微软成为OpenAI新型商业化AI技术的首选合作伙伴。

全球早期资金调研机构CBInsights报告显示,2022年AIGC领域初创公司实现110笔创投交易,投资总额超26亿美元;截至2022年,AIGC领域共有6家市值破10亿美元的独角兽公司,其中OpenAI以200亿美元市值稳居第一。2023年1月,微软宣布追加100亿美元的长期投资,谈判达成后,OpenAI公司估值将达到290亿美元,微软将持有49%的公司股权,成为最大股东。

OpenAI的成功离不开背后优秀的科研团队,其首席科学家IlyaSutskever在深度学习领域作出重大贡献,和合作者共同开发了卷积神经网络AlexNet,并参与了AlphaGo的研发,谷歌学术总引用量超37万次,单篇论文最高引用量超12万次,在人工智能学术领域有着巨大影响力。目前,OpenAI公司主营AI项目包括ChatGPT、DALL·E2、Whisper等,分别涉及文本、图像以及语音识别领域。此外,公司正在开展Alignment研究,研究人工智能的安全和控制问题,确保人工智能系统的行为符合人类的期望和价值,使其更加有用、真实和安全。

1.2.2.OpenAI的商业模式探索

OpenAI的商业模式主要基于研发和销售先进的人工智能技术,为客户提供最先进、最高效的人工智能解决方案。OpenAI方面表示,2022年,公司营业收入约3500万美元,预计2023年将达到2亿美元,至2024年,公司有信心达到10亿美元的收入目标。根据官网,OpenAI的收入结构可分解为API许可费、订阅费以及与微软深度合作所产生的商业化收入等。

收取B端API许可费为OpenAI的主要商业模式。在API许可方面,OpenAI研发了一系列API接口,包括自然语言处理、图像生成、语音识别等,并按照单位价格将API接口许可提供给企业、政府和研究机构。公司对于不同分类的模型以及不同功能的模型制定了相应报价。对于图像处理模型DALL·E,按照生成图片的分辨率进行收费,接口提供自然语言图像生成、图像编辑、图像变型的功能,目前接口处于测试中。对于语言模型,按照字符单价收费,对基础模型、微调模型以及嵌入模型收取不同费用。

随着ChatGPT用户的大量涌入,OpenAI推出C端付费订阅模式。OpenAI于1月推出ChatGPTProfessional项目,每月收费42美元,订阅用户将获得全天高可用性、快速回应,以及能够优先使用新功能。2月,又推出付费订阅版ChatGPTPlus,每月收费20美元。购买后,用户可在ChatGPT高峰时段继续使用,提前获得新功能与改进,服务响应时间也将有所缩短。付费计划先在美国推出,随后扩展到其他国家。

与微软深度合作所产生的商业化收入为OpenAI公司的另一收入来源。微软公司能够为OpenAI的模型训练提供必要的处理器和算力,作为交换,微软能够将GPT模型整合到不同产品中,包括搜索引擎、Office套件、Azure以及GitHubCopilot等。通过融入Microsoft现有的客户生态系统,OpenAI可以显着提高其模型的分发,增加其从许可费中产生的收入。

在成本端,OpenAI使用RLHF技术对ChatGPT进行了训练,加入了更多人工监督微调,参数几何级增加,其运行原理导致运算量大、运算成本高。同时,随着ChatGPT用户数量不断增长,庞大的用户基数也将带来较大的运营成本。GPT-3单次训练费用为460万美元,总训练成本达1200万美元。OpenAI首席执行官SamAltman在推特博文中透露,ChatGPT平均每一次聊天成本为“个位数美分”。因此,公司需要持续为远超当今能力的系统的算力支持做好准备,同时积极探索更多的低成本计划。

1.3.ChatGPT的技术迭代历程

1.3.1基于Transformer模型建立GPT-3

2017年,谷歌发布题为“Attentionisallyouneed”的论文,使用注意力(Attention)机制的Transformer模型开始主导深度学习领域,可用于自然语言处理(NLP)和计算机视觉(CV)等领域,BERT、GPT-3、LaMDA等预训练语言模型均基于Transformer建立。

Transformer使用自注意力(Self-attention)机制,允许模型从序列中的任意位置对其他位置进行询问,从而能够捕获更长的依赖关系

;通过多端注意力机制(Multi-head attention),将一个自注意力层分为多个并行层后合并输出结果,从而提高模型精度。Transformer模型的整体结构遵循Encoder-Decoder形式,Encoder模块负责对输入序列进行编码,以捕获输入序列中的语义信息,Decoder模块则根据Encoder得到的编码信息来生成目标序列。该结构能够完成多种涉及上下文理解的任务,如翻译、摘要、问答等。

与循环神经网络(RNN)、CNN等相比,Transformer模型在并行性、长序列数据、可拓展性方面存在显著优势。Transformer的注意力机制使模型能够同时考虑序列中所有位置的信息,从而实现并行处理;通过多次使用注意力机制,能够较好处理长序列数据,并且能考虑当前位置与序列其他位置的关系,从而捕捉语义信息;此外,Transformer能够通过增加堆叠块的数量来扩展模型的容量。

Transformer的出现大幅提高了NLP任务的性能,使得NLP技术得到了更广泛的应用,特别是在智能客服、智能问答、语音识别、机器翻译等领域。基于此,2020年,OpenAI公司发布GPT-3(Generative Pre-trained Transformer3)模型,包含1750亿个参数,预训练数据量达45TB。

1.3.2.ChatGPT基于人类反馈的强化学习训练

尽管GPT-3能够在复杂的NLP任务中取得令人震惊的效果,但GPT-3仍存在一系列问题,例如对于无意义问题,GPT-3不会判断命题有效与否,而仅会推理出一个没有意义的答案。此外,由于45TB海量数据中没有针对种族歧视、性别歧视、宗教偏见等内容进行排除,GPT-3生成的文章会包含这类敏感内容。为解决输出中存在的违背用户意图的问题,OpenAI公司GPT-3的基础上新加入了人类反馈强化学习(Reinforcement Learning from HumanFeedback,RLHF)的训练方法,开发了InstructGPT、GPT-3.5系列模型。ChatGPT为GPT-3.5的微调版本。

ChatGPT的人类反馈强化学习训练过程包括三个阶段。

第一阶段,收集人工反馈数据,训练监督策略模型。为了让GPT-3.5初步具备理解指令的意图,首先会在数据集中随机抽取问题,由人类标注人员给出高质量答案,然后用这些人工标注好的数据来微调GPT-3.5模型。

第二阶段,训练奖励模型。使用第一阶段生成的模型,对于每个问题生成多个不同的回答,由人类标注者对这些结果综合考虑给出排名顺序。

第三阶段,采用近端策略优化(Proximal Policy Optimization,PPO)强化学习来优化策略。对于每个问题,使用PPO模型生成回答,并用上一阶段训练好的奖励模型给出质量分数;通过回报分数的依次传递产生策略梯度,不断优化PPO模型参数。

对第二和第三阶段进行迭代,能够训练出更高质量的ChatGPT模型。人类反馈的强化学习训练以真实性、无害性和有用性作为模型输出的评价标准,为模型的答案加入道德评判标准,使ChatGPT能够识别恶意信息并拒绝回答,输出质量得到提升。相比GPT-3,ChatGPT的其他方面有做出了优化,包括支持连续对话,能够根据上下文给出更符合语境的回答,提升交互体验;新增代码理解、生成能力,对输入的理解能力和包容度更高,能在绝大部分知识领域给出专业回答等。

1.3.3.GPT系列迭代迅速,GPT-4未来可期

自2018年6月推出初代GPT模型以来,GPT系列已推出至GPT-3。2022年初推出的InstructGPT在GPT-3的基础上加入了人类反馈的强化学习训练,而2022年11月底推出的ChatGPT则进一步在InstructGPT及一系列GPT-3.5模型的基础上完成了模型微调。

尽管ChatGPT以其出色的上下文对话能力及编程能力颠覆了人们对人工智能聊天机器人的认知,ChatGPT仍在技术和算力上存在改进空间。一方面,在技术上,ChatGPT有时会给出看似合理但不正确或荒谬的答案,其答案生成对于输入短语的调整或多次尝试同一命题敏感程度高,模型过度使用某些短语造成答案冗长,在专业领域内知识有限,以及可能会给出违反伦理道德的答案。此外,由于预训练数据截止于2021年,ChatGPT无法给出最新答案,而针对新知识重新预训练GPT模型在时间和成本上也并不现实。另一方面,在算力上,ChatGPT需要大量算力和芯片来支持其训练和部署。除训练时需要处理大量语料数据外,ChatGPT在应用时仍然需要大算力的服务器支持。自2月7日起,ChatGPT因访问量巨大,回复速度已经大大减慢。

即将推出的GPT-4将拥有更强大的能力。GPT-4将把关注重点转向数据、算法、参数化或者对齐等方面。在模型大小上,GPT-4会比GPT-3更大,但不再强调以大取胜;在模型优化上,GPT-4消耗的算力比GPT-3更多,因此将在参数化与规模扩展方面做出新的最优化探索;在对齐上,GPT-4对齐程度将高于GPT-3,促进语言模型更加遵循人类的意图、符合人类价值观。OpenAI首席执行官SamAltman在采访中表示,GPT-4仍将是一个纯文本模型,目前对于GPT-4是否于今年内发布暂无确切时间表,他同时否认了关于GPT-4将拥有100万亿参数数量的传言。

1.4 ChatGPT引领AIGC产业链升级几大特点

1.4.1生成式AI预训练模型迅速发展

近年,包括ChatGPT和StableDiffusion在内的大型生成模型大量涌现。生成式AI能够有效地和创造性地完成文本、图像、音频、视频以及算法领域的创作。例如从文本转换成图像,如DALL·E2模型;文本到3D图像,如DreamFusion模型;图像到文本,如Flamingo模型;文本到视频,如Phenaki模型;文本到音频,如AudioLM模型;文本到其他文本,如ChatGPT;文本到代码,如Codex模型;文本到科学文本,如Galactica模型;创建算法,如AlphaTensor模型。这些模型能够执行问答、自动创建艺术图像、编写代码等任务,实现降本增效,将对工业和社会中的生产力产生巨大影响,引领全行业生产力变革。

1.4.2 ChatGPT为AIGC产业链带来三个层面机遇

AIGC产业生态由硬件基础层、中端算法层和终端应用层构成。预训练模型为AIGC的技术基础层,需要投入较高技术成本,进入门槛较高,目前主要由头部科技企业、科研机构对模型进行开发和训练,为下游模型微调和应用提供技术支撑。中间层提供垂直化、场景化、个性化的模型和应用工具,开发者能够基于底层预训练模型进行二次开发,训练得到特定垂直领域的模型,面向企业提供模型搭建和调用服务。应用层包括AIGC在文本、图像、语音、视频等各种内容方面的应用,面向C端用户进行内容生成,挖掘出更丰富的内容生态。

根据IDC 预测,随着 AI 应用的不断落地,中国市场规模将以 24.4% 的 CAGR 增长,有望在 2025 年超过 184.3 亿美元(约 1164.78 亿元人民币)。预计全球 AI 市场规模将在 2021 年达到 885.7 亿美元(约 5597.62 亿元人民币),并在 2025 年增至 2218.7 亿美元(约 1.4 万亿元人民币),五年复合增长率(CAGR)约为 26.2%。

1.4.3 AIGC产业链正提出对于数据、算力、算法三大需求

AIGC产业链生成式AI模型的应用对于数据、算力和算法三大AI核心要素均提出巨量需求。

数据层面生成式AI模型需要大量多样化的高质量数据进行训练。深度学习分为“训练”和“推断”两个环节,训练环节需要海量数据输入,训练数据越多、越完整、质量越高,模型推断的结论越可靠。通常,从自然数据源简单收集取得的原料数据必须经过专业化的采集、加工处理,形成相应的工程化数据集后才能供深度学习算法模型训练使用。GPT-2的预训练数据量为40GB,而GPT-3则达到了45TB,数据相当于维基百科英文版的160倍,较GPT-2规模增长超1000倍。

在数据量级需求增长的同时,谷歌DeepMind研究发现模型规模的拓展应与训练数据集的缩放相匹配,并且需重点关注数据质量。据艾瑞咨询预计,2025年中国AI基础数据服市场规模将超100亿。数据决定了AI商业化的落地程度,从数据标注、数据清洗和处理、数据多样性等方面提升数据质量,将为未来AIGC基础设施端带来增量需求。

算力层面:AI模型训练依赖于云计算数据中心和高性能芯片提供的强大算力支持。OpenAI研究表明,2012至2018年的6年间,最大规模的AI模型训练中所使用的计算量呈指数级增长,每3.4个月翻一番,而摩尔定律为每2年增长一倍。据微软披露,为OpenAI开发的超级计算机的每个GPU服务器拥有超过285000个CPU内核、10000个GPU和每秒400G的网络连接,在全球超级计算机中排名前五。

随着生成式AI的爆发,更多企业和组织将接入其应用,云计算数据中心通过互联网高速的传输能力和数据处理能力,能够在远端为企业提供超级计算服务,云计算需求将越来越大。算力的底层硬件仍然为芯片,AI芯片针对AI算法进行特殊加速设计,用于处理AI应用中的大量计算任务。生成式AI不仅对云端AI芯片产生训练和学习的需求,在终端也有望开拓消费应用市场,推进AI芯片实现商业化大规模落地。据艾媒咨询预测,2023年中国AI芯片市场规模将达1339亿元。

算法层面:底层模型Transformer的开源为AI算法在自然语言处理(NLP)、计算机视觉(CV)等领域落地提供基础技术路线支持。Transformer模型提供开源API用于预训练模型,基于其开发的模型能够用于完成文本、图像、音频等多模态的任务。由StabilityAI公司开发的StableDiffusion文本生成图像大模型,大幅降低了图片生成时间和成本,其完全开源的特性削弱了技术壁垒,有利于企业AI算法的商业落地。

包括ChatGPT在内的生成式AI可落地场景与算法的交互将更加频繁,NLP领域算法将广泛用于包括机器翻译、文本生成、语音识别等场景,CV领域算法则可用于人脸识别、OCR文字识别、图像识别等任务中。据艾瑞咨询,2020年,计算机视觉和语音技术类AI合计占中国AI技术开放平台市场规模的七成以上。十四五规划中提出将聚焦人工智能关键算法等关键领域,培育壮大人工智能等新兴数字产业。

1.4.3AIGC产业正在向B端和C端快速拓展

AIGC产业生态的中间层为面向B端的垂直化、场景化、个性化的模型和应用工具,是连接底层模型基础层和应用层的桥梁。在预训练大模型的基础上,企业能够快速抽取出个性化小模型,实现在不同行业、垂直领域和功能场景的工业流水线式部署,为企业节约资源和成本。

AI大模型的“大规模预训练﹢微调”范式使其能够适应不同下游任务,随着大模型和多模态的AIGC模型加速成为新的技术平台,模型即服务(Model-as-a-Service,MaaS)开始成为现实,预计将对商业领域产生巨大影响。2022年11月,阿里达摩院与中国计算机学会(CCF)开源发展委员会共同推出AI模型社区“魔搭”ModelScope,提供超300个经过验证的优质AI模型,超三分之一为中文模型,包括视觉、语音、自然语言处理、多模态等AI主要方向。首批模型全面开源且开放使用,仅需对预训练模型针对具体场景稍作调优,即可把模型变为直接可用的服务。随着AI下游应用场景的拓展,模型社区将成为AI时代的基础设施,以较低门槛把AI模型提供给广大开发者,让AI惠及社会。

AIGC产业的应用层为面向C端用户的文字、图片、音视频等内容生成服务,使用户能够在消费级显卡的算力门槛内,借助开源工具挖掘更多AIGC内容。在AIGC领域,ChatGPT通过学习大量的语料库和模型训练,能够在短时间内生成大量高质量的文本内容。目前,生成性AI在多模态技术的推动下,深度融入到文字、代码、图片、语音、视频、3D等多种模态的内容生产中,应用体验深度和广度同时增加。

1.4.4文本和图片领域是生成性AI最先拓展领域

文本领域拥有最多模型层,为生成性AI应用发展最完备的领域。从使用效果看,ChatGPT在中短篇通用文本写作上已经达到流畅自然的水平。基于OpenAICodex模型的AI编程工具GithubCopilot上线后1年用户超120万,在启用它的文件中,Copilot编写了近40%的代码。

Jasper为一款基于GPT-3搭建的AI文本生成工具,定位于企业广告营销的垂直领域,大多数模板根据营销人员的需求量身定制,营销人员使用该服务生成博客文章、新闻稿、社交媒体标题和广告文案。Jasper基础会员和高级会员定价分别为每月42美元和80美元,已有超7万名付费客户,其中包括Airbnb、HubSpot、Autodesk、IBM等企业客户。

除文本外,生成式AI在图片生成领域也初步令人满意。在绘画领域,AI依靠数量庞大的训练数据模型,对已有人类作品的绘画元素、风格、色彩进行深度学习,能够生成具有艺术价值的作品。2022年8月,没有绘画基础的参赛者使用Midjourney创作了作品《太空歌剧院》,赢得科罗拉多州博览会艺术比赛“数字艺术/数字修饰照片”类别一等奖,引发讨论。

在视频和3D等媒介复杂度高的领域,生成式AI处于探索阶段,处于快速成长中。未来,多模态模型的应用将成为重要发展趋势,生成式AI蕴含的潜力值得挖掘,有望在视频、3D、音乐等其他应用领域更广泛地引入AIGC。

2. ChatGPT浪潮下AIGC上游硬件层

2.1.芯片硬件支持是最核心

深度学习和人工智能部署增大AI芯片需求,市场规模有望10年10倍以上。当前人工智能对算力的需求呈几何级数增长,如ChatGPT的大模型GPT经历了三次迭代,GPT、GPT-2和GPT-3的参数量从1.17亿增加到1750亿,预训练数据量从5GB增加到45TB,GPT-3最新的升级GPT-3.5在训练需要使用由1万个V100GPU组成的高性能网络集群。(GPT-3每一次训练需要3.114x10^23FLOPS将花费460万美元,等于使用单个V100cloud运行355GPU年)

激增的算力需求迫使芯片制造商开发更先进、更便宜、更快的人工智能(AI)芯片,当前NVIDIA、英特尔、GoogleAlphabet和AdvancedMicroDevices等全球科技巨头已经通过推出其AI芯片模型进入全球人工智能芯片市场。根据研究机构PrecedenceResearch数据,2022年全球AI芯片市场规模约168.6亿美元,该机构预计到2032年将工智能芯片市场降达到2274.8亿美元左右,2023年至2032年的复合年增长率为29.72%。

CPU是AI芯片市场核心板块,GPU、FPGA等专注特定任务。目前AI芯片种类可分为CPU、GPU、FPGA、ASIC以及类脑芯片等。不同种类的AI芯片在AI训练和推断过程中各有优势,因此不同的AI计算任务需要由不同芯片配合完成。其中,CPU具有优秀的调度能力,是AI计算的基础;GPU用于改进和开发AI算法,在人工智能芯片市场占据重要位置;FPGA主要用于及时处理,可将实时数据输入AI应用。

2.1.1CPU芯片

CPU为中央处理器,为计算机系统的运算和控制核心,是信息处理、程序运行的最终执行单元。AI计算中,CPU的优点在于调度、管理、协调能力强,计算能力则位于其次。当前,CPU是AI计算的基础,GPU、DPU等加速芯片只能承担CPU的部分功能,从而加快处理和运算的效率。在人工智能、深度学习和云计算等领域,CPU+GPU的协同为主要场景,CPU+FPGA、CPU+NPU等组合不断推出,CPU与加速芯片的组合将成为AI计算的主流发展路线

CPU市场以x86架构为主,国际芯片设计龙头企业Intel、AMD技术领先,在市场上处于主导地位。近年来x86架构约占CPU市场份额的95%,其中Intel产品市场占有率遥遥领先,2021年Q4达到76%;AMD市场份额快速提升,2021年Q4达到18.3%,较2020年提高8.2个百分点。移动端ARM异军突起,2021年Q4市占率为5.4%。

国内海光信息、海思半导体、龙芯中科、上海兆芯、天津飞腾、成都申威等为国产处理器研发的主要企业。其中,海光信息和上海兆芯的产品主要为x86架构;海思半导体的鲲鹏处理器和天津飞腾处理器为ARM架构;龙芯中科处理器为LoongArch架构;成都申威处理器采用SW-64架构。

国内CPU相关上市企业如:

2.1.2GPU芯片

GPU为图形加速芯片,原本用于帮助CPU处理图形显示任务,尤其是3D图形显示。GPU具有多核并行计算的架构,擅长处理大规模可并行计算的数据流,并且为浮点矢量运算配备了大量计算资源,因此GPU成为高性能计算领域的主力芯片之一。由于深度神经网络的训练过程计算量极大,同时数据和运算可高度并行,英伟达(NVIDIA)推出并行计算平台和编程模型CUDA,CUDA+GPU在深度学习加速方面发挥巨大作用。

2017年,英伟达发布了最新的Volta架构的GPU芯片TeslaV100,适用于在数据中心执行的深度学习训练和推理任务。GPT-3.5在微软提供的AzureAI由V100GPU组成的高带宽集群上进行训练的算力消耗约3640PetaFlops/s-days,即按照每秒计算一千万亿次的速度运行3640天。

据智研咨询数据,GPU在AI芯片中的占比最大,2019年占比达36.54%,为市场上Al计算最成熟、应用最广泛的通用型芯片,2020年占比将提升至42.3%,市场规模约为38亿美元,预测到2024年占比提升至51.4%,届时全球人工智能GPU芯片市场规模将达111亿美元。全球GPU芯片厂商主要包括英伟达、英特尔(Intel)和AMD。据JPR数据,2022年三季度,英特尔在笔记本GPU出货量市场份额占72%,而在独立GPU领域,英伟达则占主导地位,出货量占比达88%。

目前,我国已有一批初创的GPU新势力公司,包括壁仞科技、沐曦集成电路、天数智芯、登临科技、芯动科技、摩尔线程等。据智研咨询,中国主要芯片国产化率仍有较大提升空间,2019年,射频芯片、移动通信终端、模拟芯片、闪存、微控制器、内存、可编辑逻辑器件的国产化率分别为40%、24%、15%、5%、3%、1%、1%,且国内GPU的性能与国际巨头差距较大。在高性能GPU市场被国外公司垄断、核心算力芯片受制于人的背景下,国产GPU生态将在市场和政策的推动下加速。

构建。国内GPU相关主要公司包括龙头企业景嘉微,海光信息、寒武纪等公司均在GPU领域有产品布局。

2.1.3FPGA芯片

FPGA为现场可编程门阵列芯片,是在PAL、GAL、CPLD等可编程器件的基础上进一步发展的产物,主要优点包括可编程灵活性高、低延时、能效好、可重编、可并行计算等。FPGA允许无限次的编程,配置到芯片即可使用。它与ASIC的区别是用户不需要介入芯片的布局布线和工艺问题,而且可以随时改变其逻辑功能,使用灵活。FPGA可以自定义I/O接口,提供非常高的带宽并且保证低延时,能够有效打破AI应用中的访存瓶颈。

得益于FPGA高灵活性和可扩展的优点,FPGA主要应用于需要调整芯片市场,包括网络通信、消费电子、数据中心、汽车电子、人工智能等。从市场结构看,被AMD收购的赛灵思(Xilinx)和被英特尔收购的阿尔特拉(Altera)占据了全球FPGA市场近九成份额。

目前,28nm工艺制程FPGA主流应用集中在通信设备、工业控制、汽车电子、人工智能、消费电子、高可靠应用等领域;14/16nm工艺制程FPGA主要用于对接口速度、计算量、功耗等要求更高的场景。目前国内能够实现28nm工艺节点FPGA量产的公司仍较少,在技术水平、成本控制能力、软件易用性等方面都与头部FPGA厂商存在较大的差距,市场份额较小。近年国内FPGA企业正紧跟大厂步伐,布局人工智能、自动驾驶等市场,打造高、中、低端完整产品线。其中国内目前企业例如安路科技、复旦微电、紫光国微等。

2.1.4ASIC芯片

ASIC为专用集成电路,是集成电路技术与特定用户的整机或系统技术紧密结合的产物,具有体积更小、功耗更低、可靠性提高、性能提高、保密性增强、成本降低等优点。ASIC分为全定制和半定制。全定制设计的灵活性好但开发效率低下,半定制设计的可靠性高,如果设计较为理想,全定制能够比半定制的ASIC芯片运行速度更快。基于ASIC开发人工智能芯片开发周期较长,但量产后的成本及价格较低。ASIC更高的性能、更低的量产成本以及有限可配置特性,使其主要面向消费电子市场。

近年来,加速深度学习算法的ASIC芯片逐渐增多,最突出的是GoogleTPU。TPU专门设计来加速在数据中心里为搜索业务进行的NN推理过程(包括MLPs、CNNs、LSTMs),比同时期的GPU或CPU平均提速15-30倍,能效比提升30-80倍。

KBVResearch报告数据显示,2019-2025年,全球ASIC芯片市场规模预计将达到247亿美元,在预测期内以8.2%的复合年增长率增长。随着机器学习、边缘计算的发展,大量数据处理任务,让人们对计算效率、计算能耗等都提出了更高的要求,在此背景下,ASIC芯片开始受到重视,国外谷歌、英特尔、英伟达等科技巨头相继发布了TPU、DPU等ASIC芯片,国内寒武纪、比特大陆、地平线等公司也都推出了深度神经网络加速的ASIC芯片。

国内ASIC芯片主要上市公司如:

(1)寒武纪(688256.SH):国产AI芯片核心领军者。较早实现了多项技术的产品化,例如推出全球首款商用终端智能处理器IP产品寒武纪1A、中国首款高峰值云端智能芯片思元100等。公司在智能芯片领域掌握了智能处理器微架构、智能处理器指令集、SoC芯片设计、处理器芯片功能验证、先进工艺物理设计、芯片封装设计与量产测试、硬件系统设计等七大类核心技术。

2022年3月,寒武纪发布MLU370-X8训练加速卡,采用思元370芯片,集成了寒武纪MLU-Link™多芯互联技术,主要面向AI模型训练任务。MLU370-X8为双槽位250w全尺寸智能加速卡,提供24TFLPOS(FP32)训练算力和256TOPS(INT8)推理算力,同时提供丰富的FP16、BF16等多种训练精度。在YOLOv3、Transformer等训练任务中,8卡计算系统的并行性能平均达到350WRTXGPU的155%。

(2)澜起科技:成立于2004年,是国际领先的数据处理及互连芯片设计公司,致力于为云计算和人工智能领域提供高性能、低功耗的芯片解决方案,目前公司拥有互连类芯片和津逮服务器平台两大产品线。

2.1.5光模块

光模块(OpticalModules)作为光纤通信中的重要组成部分,是实现光信号传输过程中光电转换和电光转换功能的光电子器件。光模块具体分为光发送模块、光接收模块、光收发一体模块和光转发模块,通常业内所说的光模块是指光收发一体模块。光模块的发送端把电信号转换为光信号,接收端把光信号转换为电信号,传输速率从100Mbps至400Gbps不等。按照封装形式分类,常见的有SFP、SFP+、SFF、千兆以太网路界面转换器(GBIC)等,目前更先进的封装方式为QSFP-DD和OSFP,整体发展方向为高速率、小型化和可热插拔。

现代数据的存储、计算、分析等均基于电信号,以光纤作为主要的传输介质,光模块通过光纤连接节点,能够实现更快的数据传输速度和更远距离的传输,减少信号衰减的问题。光模块的应用场景主要包括以太网、CWDM/DWDM、连接器、FibreChannel、有线接入和无线接入等,各细分场景覆盖数通市场和电信市场,据LightCounting,2021年四季度数据光模块占全球光模块的67.4%。光模块在AI计算中被广泛应用于数据中心、超算、云计算等场景。

根据ICC发布的《2021全球光通讯市场分析与预测》数据,2020-2025年全球光收发模块市场将从100亿美元增长到近160亿美元,5G持续规模部署、数据中心扩容升级以及光纤宽带网络升级成为未来光收发模块市场增长的主要推动力。近10年,中国本土光模块厂商凭借低成本优势,在国际竞争中表现突出。长期来看,800G、硅光模块、CPO技术、相干光模块等新技术创新需求将推动光模块行业持续增长。

国内光模块相关上市企业例如德科立、天孚通信、中际旭创:

2.1.6Chiplet技术

基于Chiplet(芯粒)的集成技术将传统的系统级芯片划分为多个单功能或多功能组合的“芯粒”,然后在一个封装内通过基板互连成为一个完整的复杂功能芯片。异构集成芯片技术Chiplet提出了一种芯片性能与工艺适度解耦的设计思想,为性能提升摆脱单纯依赖工艺进步提供了最佳解决路径,成为“后摩尔时代”的复杂异构芯片设计发展方向。

Chiplet技术具有异构集成芯片性能提升与工艺适度解耦合的特征,通过多个小芯片的灵活重组,在保证性能前提下,摆脱了制造工艺的限制,同时降低了制造成本,非常适合对高算力芯片设计。基于Chiplet技术实现的存内计算芯片、人工智能应用加速器芯片,能有效解决当前高性能计算普遍存在“内存墙”问题。

据Omdia测算,Chiplet市场规模预计到2024年将达58亿美元,2035年将超过570亿美元。

全球Chiplet市场规模由2018年约8亿美元增长至2024年近60亿美元,期间年复合增长率为44.20%,增长态势十分迅猛。目前,AMD、英特尔、台积电、海思半导体和Xilinx等已经发布了基于Chiplet集成的产品。未来CPU、GPU、DPU、FPGA、ADC/DAC、高带宽存储器、硬件加速器和高速互连接口等芯粒有望利用Chiplet技术快速集成在一起,提升芯片的性能,增加产品的灵活性,并降低芯片上市时间。

国内Chiplet技术相关上市企业如兴森科技、长川科技、方邦股份、华正新材、通富微电、长电科技等:

一般声明:

本订阅号所载的盈利预测、目标价格、投资评级等观点,均基于特定的假设和前提条件,仅反映研究报告发布当日的判断。在不同时期,东财证券可能会发出与本订阅号所载意见不一致的研究报告,但本订阅号不承担更新推送信息或另行通知义务,后续更新信息请以东财证券正式发布的研究报告为准。

本订阅号所载内容基于东财证券认为可靠的信息编制,但东财证券对该等信息的准确性、完整性及时效性不作任何保证,也不对证券价格的涨跌或市场走势作确定性判断。本订阅号所载内容并非投资决策服务,不构成对任何人的投资建议,东财证券也不对任何人因使用本订阅号所载内容所引致的任何损失负任何责任,投资者需自行承担风险。

本订阅号所载内容的版权均属东财证券,未经书面许可,任何机构或个人不得以任何方式翻版、复制、刊登、转载和引用。版权所有,违者必究。

全部讨论