腾讯混元大模型内部交流纪要

发布于: 雪球转发:23回复:13喜欢:41

摘要:

1、腾讯AIl大模型六个BG都有参与,其中TEG在算法上更偏general,其他BG更偏行业。

2、混元大模型万亿参数水平,相比ChatGPT性能更强,但可能比GPT4比有所不足。混元大模型目前偏自然语言,而GPT4支持多模态。

3、推理过程边缘侧和训练侧是两套系统,是分离的。

4、目前来看通过翻译扩充中文语料提升不会很大。

5、大模型之后会接入微信、游戏、短视频、广告、TOB 端等业务。

6、腾讯目前部门向上申请的服务器资源中浪潮占比偏多。

7、目前数据均采用联邦学习计算方式进行加密,不会导致原始数据泄露。

8、精调不需要更新全部网络,不需要更新后面几层,故算力和数据要求较小。

Q&A

Q:腾讯在AI大模型方向的进展情况?混元大模型?

A:腾讯的大模型情况与百度、阿里不同,我们分到了每个BG,我们有6个BG(TEG技术中台、CSIG面向B端、微信、游戏、PCG做内容、CDG偏广告金融),其中六个BG都有做AI都非常重视不管从投入还是老板重视程度来看我认为AI在技术侧是腾讯第一的地位。。TEG类似中台,AIlab在TEG下面。混元大模型由腾讯唯一17级科学家张正友老师负责,也是AIlab的负责人。6个BG都有人在参与混元,共同推进,算法上TEG偏general,其他BG偏行业。大模型腾讯在几年前也做过,混元也有上一代产品,偏检索式。马上五月要发的是偏深层次的,对标ChatGPT。目前混元还在测试研发中。

Q:腾讯AI大模型在什么样的水平?

A:腾讯AI大模型是万亿(参数)的,虽然还未发布,但我们自己认为比ChatGPT要强,但比GPT4可能不足,GPT是支持多模态,而我们暂时偏自然语言。

Q:混元大模型的算法是腾讯原创?还是基于什么技术路线?

A:算法一对标GPT,但也有不一样的地方,比如 Fine-tune,Reward Model,PPO,但其实这三步都是大家需要做的事情,主要是需要自己找一些新的数据,再做数据预处理。

Q:在算力层面,腾讯云已用于AI训练的算力在什么水平?后续投入计划?

A:我们投入了将近万张卡,我们在算力上还是有一定储备,我们也在内部评测华为昇腾芯片,发现有些场景下性能还可以。

Q:混元的训练数据以什么类型为主,数据来源?

A:数据来源为公开中文数据集、自己内部数据。数据需要做标注等预处理工作。

Q:能否介绍一下您正在研发的产品具体情况?未来商业化场景?

A:我们主要面向B端、G端客户,后续会重点推行业的中小模型,主要有几种模式:

1、对于超大客户,可能会选择从头训练一个大模型,但这种情况比较少,我们有能力去帮助客户从0到1重新训练大模型。

2、基于客户的私有数据对我们基础大模型做定制化fine-tune。

3、大多数客户还是会基于其行业属性,我们一起联合训练模型。

Q:腾讯混元大模型在哪几个方面的性能强于ChatGPT?

A:从参数上,我们1万亿,ChatGPT是1750亿

Q:腾讯的AI服务器用哪家较多?

A:浪潮。

Q:腾讯在AI医疗方面有没有与企业合作做AI医药研发训练,或者AI在线诊断?AI医疗数据有专门数据处理公司吗?

A:我跟的领域没有做这方面的事。我知道有一个单独的团队在做 DrugAI的事情,但实际做到什么程度我不清楚。也有团队在做医保卡相关的项目。数据处理公司也不太清楚。

Q:整个训练过程都是有监督条件下的大模型训练吗?

A:前面模型可以做自监督,后面的要在模型上做数据标注。算法原理是先有一个一般意义上的模型,再在模型上做数据标注、排序等。

Q:在混元大模型上做行业小模型,小模型属于推理部分吗?

A:大多数客户只要推理,但费用和投入肯定不一样。

Q:在推理过程中,数据传输和算力只有大模型需要还是推理端也需要?

A:取决于客户部署在哪里。如果部署在公司云上,需要采购公司算力。如果有自己的私有云,就有自己的算力。针对数据隐私公司会加密。

Q:如果应用端是b端企业,跑行业数据会落在边缘侧和训练侧不联系吗?

A:是完全隔离的,可以认为是两套系统。训练后会出参数,之后进行部署和训练是分离的。像在现在体验的ChatGPT只会用推理部分,与训练无关。

Q:以混元大模型为基础开发的行业小模型在算法上要与大模型适配?

A:网络结构肯定要一致。本质上都是神经网络,训练输出权重,推理就是利用网络结构做矩阵层。

Q:结构一样可以迁移吗?

A:每家都是完全不同的,像安卓安装的应用要重新开发才能安装到ios系统。

Q:英文、中文语料在AI大模型上的差异?有可能通过翻译扩充中文语料吗?

A:现在更缺的不是量,而是高质量数据。翻译本身会有信息损耗,目前英文比中文多了几倍,目前翻译不见得有很大的提升。

Q:知识性语料翻译损耗低?文学类相对高?

A:知识性英文语料在中文百科已经有了,没必要翻译。搜索频率极低的也没要必要翻译。西方文学名著应该都有翻译了,非常小众的可能没有。

Q:中国处于数据安全不太可能完全接纳ChatGPT?微软在bin和office上的Chatgpt能否通过技术优化跨过监管要求?

A:除非后续OpenAI同意把数据都放在政府监管之下,可能才能被容纳,这与技术没有关系。Bing和office应用同样,微软要接受政府监管,技术上像VPN是不会统一的,因为从个人安全、国家安全来看,数据是重要资产。

Q:训练大模型时间?大概多久超越GPT4?

A:之前有过底座模型,现在是基于底座模型研发,不是从零开始。时间将近5月份,近小半年时间。

Q:百度、华为、阿里小米等技术层面对比?

A:大家方法肯定类似,只是每家数据有差异。像百度做搜索引擎的肯定有先发优势,后续还要看把技术优势商业化能力。

Q:腾讯模型后续进入方向?

A:1、微信肯定是最好的场景,因为它本身偏对话具有小程序,后续加上服务肯定有更好的体验。

2、游戏上肯定设计偏创意设计,效率上肯定有提升。

3、广告业务也会有很好的工具赋能。

4、短视频肯定也会有很大提升。

5、TOB上肯定会往各行业推大模型,因为AI本身是降本增效的工具。

Q:浪潮服务器采购量?

A:服务器采购量不知道。但申请资源里浪潮偏多。

Q:大模型商业化会率先ToC还是ToB。

A:同时进行,因为每个BG均有参与,同时基于其底座能力。

Q:目前是否有对外合作?

A:目前SaaS 加速器、微信等业务均有大量合作伙伴。原业务基于AI的部分合作务均口以使用大模型进行替换。

Q:大模型合作中的数据保护形式?

A:客户行业数据主要用干训练部分对模型进行定制。目前数据均采用联邦学习计算方式进行加密,不会导致原始数据泄露。联邦学习原理可以实现只共享数据权重,数据和权重之间是单项传递,无法倒推。

联邦学习分横向联邦、纵向联邦。联邦学习根据不同用户的权重,将训练出来的模型加权平均,再分布给用户进行下一轮训练。

Q:云端精调收费方式?

A:采纳腾讯IaaS算力进行训练,腾讯也有自己的特殊数据帮助客户训练。

Q:精调与预训练两个过程对芯片要求是否有区别?

A:预训练主要是通过反向传播对全量网络进行更新。但精调不需要更新全部网络,不需要更新后面几层,故算力和数据要求较小

Q:有一定算力基础的厂商是否可以自己进行精调?

A:腾讯万亿量级底座效果会较好,但目前斯坦福也已经推出了小参数但效果不错的模型。伴随算法不断迭代,未来算力不会是瓶颈,数据才更为重要。

Q:若使用昇腾芯片,会通过使用华为云还是采购芯片第三方代工方式?

A:从技术来说是都可行的,但是从成本一来说,华为云成本会比采购更低。但腾讯肯定不会使用华为云,会使用自建云。对客户来说,还需要考虑的方面是数据安全性。但将数据交给国内大厂都是较为安全的。

备注:本文档仅为内部交流内容,仅供参考,信息的准确性和完整性不作任何保证。

$腾讯控股(00700)$ $浪潮信息(SZ000977)$ $三六零(SH601360)$ 

全部讨论

2023-04-03 11:48

这种所谓的内部纪要百分之九十的概率是假的吧

2023-04-03 12:00

2023-04-03 11:56

六个bg都在做大模型。是在内部做赛马?还是各个Bg的利益无法协调导致必须都各自搞一个山头?

2023-04-03 22:21

Q:训练大模型时间?大概多久超越GPT4?
A:之前有过底座模型,现在是基于底座模型研发,不是从零开始。时间将近5月份,近小半年时间。

高质量数据不足,导致增加了模型参数到万亿级别,太大了。。以后不太容易减少,推理速度估计也不太好?

2023-04-03 22:08

A:我们主要面向B端、G端客户,后续会重点推行业的中小模型,主要有几种模式:
1、对于超大客户,可能会选择从头训练一个大模型,但这种情况比较少,我们有能力去帮助客户从0到1重新训练大模型。
2、基于客户的私有数据对我们基础大模型做定制化fine-tune。
3、大多数客户还是会基于其行业属性,我们一起联合训练模型。
这种应用方式与GPT不同。不是通用的,通过应用行业数据进行训练,搞成行业专用的模型。也是一种差异化的商业方式,和以前百度的方式一样,可能效率比较低,效益也低

2023-04-03 22:05

要出来早出来了,而不是openai出来才跳出来说自己也行,不要脸

2023-04-03 21:37

牛逼了,还有内部交流

2023-04-03 12:13

然而。。。。

2023-04-03 11:18

这象是在说,腾讯会在5月推出大模型