发布于: 修改于:雪球转发:1回复:9喜欢:2

NV空头观点收集

仓老师:各大厂已经在纷纷做xPU了啊,这是事实,不是观点,观点的话就是your margin is my opportunity.

英伟达这么高的利润率,还把手往下游伸,客户自研芯片是必然的

小丰:是的,尤其是H100 4w刀的时候。大家必然不会绑定一个硬件商,要不然随便被拿捏。pytorch2.0已经原生支持AMD硬件了

市场大了以后各种软件适配,自研芯片都会来。类似苹果发明现代智能手机以后,安卓这个完全不兼容iOs的系统也能发展,本质原因就是市场太大了。

openai持续挖cuda的墙角,triton已经开始合并rocm代码,补完pytorch 2.0的完整体架构业已在预期之中

全部讨论

05-29 21:33

看空其实没问题,拍脑袋式看空那真是无语了。这帖子收集的id不少还是大V,我只能说今天这阶段的nv是不便宜,但整个生成式ai的魅力仍然未被重视。

2023-10-07 12:26

1、Google已有TPU,并且TPU v5将对外界开放;AWS推出了 Trainium训练AI芯片 和 Inferentia推理 芯片;微软自研 AI 芯片代号“Athena”(2019年启动的);Meta自研AI芯片MTIA;OpenAI借助AI初创公司的能力也在自研AI芯片;
2、华为推出了Altas800全新架构昇腾 AI 计算集群,支持超万亿参数大模型训练;国产替代,NV国内市场大概占20%多;
3、VC巨头红杉公开质疑:英伟达要卖500亿美元GPU,AI产业赚得到2000亿美元吗?
4、苹果的AI战略:“设备内AI(In-Device AI)”;
5、在LLM的游戏规则下,内存容量、内存带宽以及互联带宽成了最核心的竞争力,而算力的重要性下降了,而内存容量带宽等是标准化模块,不是NV独占。
6、资本市场一定会扶持一个第二名,AMD和Intel在身后玩命追赶。
7、深度学习早期单一模型规模小,所以算子多样化,对计算硬件的通用化生态有非常高的要求,CUDA有优势。现在LLM时代模型规模变大的同时算子也开始单一化了,此时虽然CUDA优势还在,但其它竞争对手也有了机会。

02-24 08:54

黄建平,现在的英伟达微软诺和诺德礼来有没有可能也被热炒得太离谱?

03-09 11:36

网页链接
很好的讨论

03-10 09:01

大哥们的事实仅止于大厂做xpu,看看博通对asic的表述,特斯拉对dojo的表述就知道这个事情不好做。而且msft,aws自研真的不是给这些股东一个安心说法吗?

05-30 23:40

哈哈这是先列出来留着打脸贴,大v只是粉丝多,无脑粉丝占大多数,不是真正的砖家,即使砖家其实也说不清楚,新的东西都是边走边看

03-27 23:09

有些泡沫是不应该用估值去看的,要用市值看。
b端企业占人类股票市场的总容量。
我觉得英伟达会跑输大市。
他需要其他行业大涨,经济繁荣,把他占全球股市的比例降下去。
人类终究还是要吃饭的
作者:metalslime
链接:网页链接
metalslime2分钟前
ai泡沫跟当年的互联网泡沫还是不同的,那就是因为ai产生的市值增量占比在整个美股是远远大于当年的互联网泡沫的。
虽然互联网泡沫很大,都是未盈利企业,pe几百到几千,但是市值占比并不夸张。
我反倒觉得,互联网泡沫更符合星辰大海泡沫的定义。
ai这样,泡沫不见得就比互联网泡沫小

03-09 11:27

仓又加错:“未来三年”,我没那么乐观,大规模提升整个社会的效率必须有杀手级to C应用。
虽然现在AI在to B领域帮各公司大赚特赚,但是以AI现在的能力、发展速度和能耗,并不支持三年后能有类似移动互联网开始时的智能手机、微信这样的杀手级to C应用出现。
特别是能耗,最近大家都在说AI的摩尔定律是scaling law,却忽略了scaling law背后的巨大能耗,摩尔定律用了几十年才撞上物理屏障,scaling law却会很快撞上物理屏障、倒不是说能源不够用,而是每单位推理所需的能耗经济上不划算。
这些都是扯淡不重要,我倒是一直在想,方总认为很贵的原因,肯定不是PE这些表面的。英伟达现在2万多亿美元市值,按照50%净利润率算,需要客户4万亿在GPU一项上的资本开支,在AI服务器上的资本开支是8万亿,加上机房不止10万亿去了,方总是不是这么算的账?即:客户的资本开支不支持英伟达这么高的市值——花2万亿买下英伟达,卖不出去4万亿显卡就是亏本投资,还没算折现率。