发布于: Android转发:1回复:57喜欢:31
英伟达在ai方向上的逻辑出问题了。Llama3性能大幅度提升,关键在于提升并不是依赖模型参数量的变大。80亿参数的Llama3性能超过了之前700亿参数。
那么英伟达的供不应求,除了中国担心断供无脑囤货,再一个方向是对参数和算力指数增长预期,虽然我在一年前已经预言,一个人的智慧,读1000本好书肯定质变,但是读1000万本书效果不大,堆算力,堆参数是死路,市场不信。即使堆算力是对的,这块市场被英伟达独占也是不可能的。
如果是一年前是相信所以看见,那么现在该到了看见所以相信的时候。
PS,Llama是Meta主推的开源模型,现在80亿参数模型已经可以免费下载。
$Meta(META)$ $特斯拉(TSLA)$ $英伟达(NVDA)$

精彩讨论

复利的福利04-19 07:20

你知道读1000万本书后的状态?没逻辑也是一种逻辑

JZee04-19 08:00

首先70亿参数模型能吊打700亿参数的llama2这不是新闻,mistral70亿在几个月前就吊打700亿llama2了。只能说明当年的llama2做得还有大改进空间,mistral用的混合专家架构是个更好的架构,大概率llama3也抄了这个架构。其次,700亿的llama3依然吊打80亿的llama3。以后700亿的llama10还是一样会吊打70亿的llama10. 就好像你拿着苹果1代手机说,这个手机吊打埃尼阿克了,没有人会需要装了更强大的CPU的手机了。

夜雨听风投资04-19 07:05

你是不是看错了啊??llama3 8b的模型只是碾压同样大小的模型,没有说超越70b的模型啊???你上来就否定掉scaling law是不是有点太莽了啊??8b的模型一般部署在边缘侧的,这也是训练这种模型的原因,如果这种小模型超越更大的模型,还玩啥啊??

均衡的赚钱小游轮04-20 05:42

华尔街看了你的文章直接抛售英伟达了。

wanxinz04-19 07:56

卧槽,一个是韭菜、 一个是世界第一的芯片大师,谁对?

全部讨论

你是不是看错了啊??llama3 8b的模型只是碾压同样大小的模型,没有说超越70b的模型啊???你上来就否定掉scaling law是不是有点太莽了啊??8b的模型一般部署在边缘侧的,这也是训练这种模型的原因,如果这种小模型超越更大的模型,还玩啥啊??

04-19 08:00

首先70亿参数模型能吊打700亿参数的llama2这不是新闻,mistral70亿在几个月前就吊打700亿llama2了。只能说明当年的llama2做得还有大改进空间,mistral用的混合专家架构是个更好的架构,大概率llama3也抄了这个架构。其次,700亿的llama3依然吊打80亿的llama3。以后700亿的llama10还是一样会吊打70亿的llama10. 就好像你拿着苹果1代手机说,这个手机吊打埃尼阿克了,没有人会需要装了更强大的CPU的手机了。

04-19 07:20

你知道读1000万本书后的状态?没逻辑也是一种逻辑

04-19 07:56

卧槽,一个是韭菜、 一个是世界第一的芯片大师,谁对?

华尔街看了你的文章直接抛售英伟达了。

04-19 07:17

那对CPO板块影响大吗

04-19 07:44

你还教英伟达怎么做

04-19 17:25

典型外行评论内行

工业母机政策关注度提升,二线弹性标的开始有人关注。机床板块有机会