盘在树上睡觉的蛇 的讨论

发布于: 雪球回复:7喜欢:19
说点自己知道的,仅供山神参考
算力部分,推理其实相对好取代一点,vllm这类推理框架也在慢慢加入RCom的支持,重要的是推理是小批次(最多也就推理1M token了,常见推理也就1~4k上下文,吐出1k token)但是完全趋同的操作,人力投入是一次性的,一旦兼容了,出问题几率较小。
而训练部分人工反复比较多,每次又是大批次操作,很多GPU并行跑上一两天看结果,这时碰上一个兼容性问题就得重来,在AI公司拼速度时没人愿意这么冒险浪费人工,这些方面Cuda的先发优势会维持更长时间。反过来也是只有谷歌最新的Gemini/Gemma明确说是在自家TPU上训练出来的,可以抬升自己的价值。
小批量的神经网络/机器学习/模型微调(我个人直接玩过),程序员直接面对的pytorch/tensorflow,或者抱抱脸的Transformer实现,上面再有一些并行框架如Deepspeed/TorchRun,再往上层有整合好的微调工具包Axolotl等。
pytorch/tensorflow 最常见靠谱的底层是cuda,但是绝非按照cuda编写的,现在也在积极吸纳RCom等兼容性实现,华为的910B也在积极适配这些框架,兼容性问题总能慢慢解决,我也听说了某些完全跑通7B大模型训练的例子。
另外训练时,单卡算力并不是难点,比较困难的是多卡(或者总显存要求极高时)到底能否高性能并行。既考验单机多卡之间的带宽,也考验机群中多机的带宽,同时还要求并行库和实际训练框架之间的调优和配合。这部分还不能说完全不被卡脖子,但是也不是一片绝望。

热门回复

很专业[很赞]我对英伟达最大的疑虑还是 1. cuda护城河到底有多大,苹果的品牌价值更多是面对消费者的,所以很稳固。但cuda并不直接面对消费者,对应的还是程序员,具体切换成本有多大外行人无从得知,如果其他科技公司铁了心另开新的编程体系,会不会挑战cuda地位? 老黄会不会被迫让cuda兼容其他公司gpu? 2. gpu 以前都是玩游戏才买的,没人想进这个小市场竞争,现在市场变大了这么多,未来竞争者难道都坐视老黄独吞75%毛利不参与竞争?

我觉得推理芯片以后才是大需求,国内有什么公司推荐吗?

都认识,没看懂,要被时代淘汰了么

不知道啊,越靠近的行业越不敢投,总体波动太大了。至少现在国内推理芯片都处于风投阶段。
持有过一些外围光模块的股票,已经卖光了。