发布于: Android转发:0回复:0喜欢:1
数字经济与产业融合的三个浪潮中看$泛微网络(SH603039)$
第一个浪潮是由IT驱动
大约从上世纪50年代开始,以PC为代表的技术逐步进入到人们的生活和工作中。工厂开始使用MIS管理信息系统,过度到用ERP。这个阶段产生了一家领头的公司“IBM”,这家公司大约在2010年时,市值达到最高点,约1.36万亿人民币。当然,这个阶段还有很多代表性的公司,如微软英特尔、SAP、oracle等。
第二个浪潮是由互联网驱动
2000年以后,随着互联网的普及,类似雅虎这样的门户网站开始一路发展,从电脑到手机,从PC互联网到移动互联网,其中代表性的企业就是苹果公司。苹果公司一方面定义了智能手机,另一方面开发了APP store,一个应用市场的分发系统。苹果公司市值最高的时候达到3万亿美元,其主要利润来自于手机和APP store的分账。这个阶段,产生了大批量的科技平台企业。
第三个浪潮是由人工智能驱动
从IBM 的Waston开始,到2016年AlphaGo下棋战胜人类高手,再到如今最火热的ChatGPT,人类社会正在走进一个智能化的新时代。如果苹果公司3万亿美元市值是第二浪公司的市值巅峰,那么预测在第三浪会诞生市值10万亿美元的公司。
今天要实现数字化转型,如果还继续沿用IT+、互联网+的做法,很快就将落伍。高质量发展就是要不断开发最先进的数字技术,并将这些新技术、新数字化要素,用来升级我们的管理流程、发展理念,用智能化的新技术、新模型和新思路来实现组织数字化转型。
组织的数字化转型走过了三个重大阶段。
阶段一:日常工作电子化
典型特征:使用电脑和office软件办公
阶段二:管理流程信息化
典型特征:通过OA系统或ERP将组织制度通过信息系统固化,落地,
阶段三:内外协同移动化
典型特征:组织内部和外部协作通过手机就能完成
阶段四:智能化
典型特征:机器越来越懂人类的语言。软件界面会逐渐消失,机器人会帮你完成。
泛微或许处在这样一个奇点。由移动化向智能化转移,助力组织实现数字化转型的第4个阶段。
简单说下ChatGPT的原理:
1 ChatGPT通过在大规模的文本语料库上进行预训练来学习语言的统计特征和语义表示。预训练过程使用了一个叫做Transformer的神经网络架构,该架构被证明在自然语言处理任务上非常有效。ChatGPT的预训练模型使用了海量的互联网文本数据,通过预测给定上下文的下一个单词来学习语言的模式和结构。
2 ChatGPT中的Transformer模型使用了注意力机制来处理输入和生成输出。注意力机制可以让模型根据输入的不同部分分配不同的权重,从而更好地理解和关注相关的上下文信息。
总结在ChatGPT中,Transformer架构被用作预训练和微调的基础模型。通过Transformer的自注意力机制和多头注意力机制,ChatGPT能够更好地捕捉输入序列中的关系和语义信息,并生成连贯、有逻辑的回答。因此,Transformer在ChatGPT中发挥了关键的作用。
需要注意的是:它并不是ChatGPT独有的,也被广泛应用于其他自然语言处理任务和模型中。在开源社区中,也有一些基于Transformer架构的开源项目,一些常见的开源项目包括"transformers"(Hugging Face开发的库)和"Tensor2Tensor"(谷歌开发的库)。
现在其实没有太多的技术难点,核心就是能否做好智能化的应用。