03-20 17:56
奥特曼说1000亿参数以上就边际递减了,万亿参数噱头大于实质,不过看出来了,大公司英伟达卡就是多!
ChatGPT-3.5的参数1750亿。
马斯克Grok-1模型拥有3140亿参数。
@马化腾查看图片
腾讯控股 公告及通告 - [末期业绩 / 股息或分派 / 暂停办理过户登记手续或更改暂停办理过户日期] 截至二零二三年十二月三十一日止年度全年业绩公佈 网页链接
奥特曼说1000亿参数以上就边际递减了,万亿参数噱头大于实质,不过看出来了,大公司英伟达卡就是多!
参数多没啥用…Grok依托答辩
腾讯AI的水平比阿里差远了,了解一下通义千问多少参数
参数数量一定程度后其实没啥大用,没有优质的基础数据预处理和高质量的人为纠错过程。
就如读1000本少儿百科和读了1000本世界名著,1万亿参数也没啥用。
340亿分红,算算我也得交不少税,心痛💔
参数规模不是一切,1750亿的是GPT3,现在普遍猜测的是GPT 3.5turbo是一个蒸馏过的8*7B MOE混合专家模型。grok模型规模虽然很大但是表现远不及Qwen1.5 72B和mistral 8*7B
雪球马化腾为什么不说话
反正现在的混元助手是不入流的水平,没法洗。
参数多不知道有没有用,我的直观感受就是国内大模型普遍文理偏科严重,写个文章啥的都没问题,一到要解数学题,要正儿八劲写代码了,就拉夸得不行。
不明白为什么一直重复造轮子,gpt5出来全部淘汰