发布于: 雪球转发:0回复:14喜欢:10

$特斯拉(TSLA)$ 马斯克刚开源的Grok,真的是电子垃圾。但一堆人竟然还拿它讽刺国内“现在可以抄了”。。。

1.Grok官网上有自己贴的Grok1的benchmark,略强于gpt3.5,且不说这还只是它自己声称的数据,314B的参数量做出这玩意真的太差了,都不如Qwen-72B(通义千问72B版本),跟Qwen-14B有来有回。

2.目前开源版本的Grok1主页没有任何benchmark介绍(网页链接),等后续别人跑的结果吧,大概率比非开源的Grok1更差。

3.国内大模型少说一两百种,得有多井底之蛙才认为国内还需要“抄”Grok啊。当然如果gpt4或claude3开源,是值得“抄”一下的,但没开源。

4.国内很多模型都开源了,比如在github接近4w star的ChatGLM-6B(妥妥的大热项目)、接近1w star的Qwen,国外也有很多。如果不是马斯克的名气,Grok开源根本掀不起半点波澜。

4.大模型本身实际也不存在“抄不抄”一说。当今基本所有大语言模型(LLM)都是基于Transformer实现的,最早出处是谷歌17年的论文,要说“抄”,如今所有LLM都是“抄”谷歌,包括openai的gpt。

5.老马开源Grok,实际上也是因为它确实不行,开源也没啥能被“抄”的(跟特斯拉部分开源技术类似),以及看到曾经踢掉自己的openai如今如此牛b,有点心态失衡,且想借舆论给不开源的openai施压。(Grok可能确实成为了目前最大的开源模型。但远不是最强的开源模型)

6.题外话。谷歌虽然是最早提出者,但已远不如openai,论文核心成员都走了。之前谷歌刚出的gemini,你用中文问他问题的话,他会认为自己是百度的文心一言,并且疯狂赞美李彦宏和百度。。。这似乎更像是“抄”(实际应该是中文训练时扒了文心一言的语料)

7.国内目前买不到最新显卡,但普通显卡不是不能用,只是需要更大集群或更长时间,以及更多电费。

8.部分LLM排行可以看这个:网页链接 (不全,其它还有很多,在huggingface或github可以自己搜搜)

9.重申,spaceX确实还是遥遥领先,但特斯拉并不是了,Grok更是“遥遥落后”

(Grok这点我很确信。大家自己也可以问问国内外任何做ai的人)

#大模型# #显卡# #特斯拉#

全部讨论

那些吹grok的人基本上连一个大模型都没有跑过,纯粹就是看到马斯克的名字就跪下猛吹,完全没有任何认知逻辑能力

只有华为配得上遥遥领先,其他也有很多方面清场式遥遥领先,spaceX以及其它配不上

03-18 20:28

春节的时候撸了一遍,一个能打的都没有,都够不上gpt3.5plus,也就是Claude勉强,其余的都是人工智障复读机。
说复读机,是因为你指出错误答案后,模型基本没有纠错能力,你指出一百遍,它还只能叨叨叨自己那一套。也就gpt3.5嘴硬几次后能改正,4则更快。

03-18 15:47

嗨,大A这群人说的话都不要太当真,尤其是做短线的大V们,大多数都是涨了吹,跌了就卖出的嘴盘,没啥底层逻辑研究能力的,当个笑话看好了,反正他们靠粉丝赚的流量

通义千问是阿里巴巴搞的吧?

比特斯拉好的电车选哪个?