发布于: 修改于: Android转发:0回复:35喜欢:4
混元大模型参数规模拓展为10000亿。
ChatGPT-3.5的参数1750亿。
马斯克Grok-1模型拥有3140亿参数。
[很赞]@马化腾查看图片
引用:
2024-03-20 16:40
腾讯控股 公告及通告 - [末期业绩 / 股息或分派 / 暂停办理过户登记手续或更改暂停办理过户日期] 截至二零二三年十二月三十一日止年度全年业绩公佈 网页链接

全部讨论

奥特曼说1000亿参数以上就边际递减了,万亿参数噱头大于实质,不过看出来了,大公司英伟达卡就是多!

03-20 17:57

参数多没啥用…Grok依托答辩

03-20 18:02

腾讯AI的水平比阿里差远了,了解一下通义千问多少参数

03-20 18:31

参数数量一定程度后其实没啥大用,没有优质的基础数据预处理和高质量的人为纠错过程。
就如读1000本少儿百科和读了1000本世界名著,1万亿参数也没啥用。

340亿分红,算算我也得交不少税,心痛💔

03-20 18:00

参数规模不是一切,1750亿的是GPT3,现在普遍猜测的是GPT 3.5turbo是一个蒸馏过的8*7B MOE混合专家模型。grok模型规模虽然很大但是表现远不及Qwen1.5 72B和mistral 8*7B

03-20 17:49

雪球马化腾为什么不说话

03-20 18:35

反正现在的混元助手是不入流的水平,没法洗。

03-20 18:37

参数多不知道有没有用,我的直观感受就是国内大模型普遍文理偏科严重,写个文章啥的都没问题,一到要解数学题,要正儿八劲写代码了,就拉夸得不行。

03-20 18:19

不明白为什么一直重复造轮子,gpt5出来全部淘汰