从未来看现在 的讨论

发布于: 雪球回复:0喜欢:0
我只能说你对AI服务器没吃透。啥叫CPU被GPU挤压下市场变小。多学习一下吧!

热门回复

一般评论别人我不喜欢说太多 既然你质疑 那我就详细说一下 首先从CSP资本开支的角度来说 2022年可以认为全部服务器支出都买通用服务器 简单化一下一台服务器一个CPU一个GPU 2024年AI爆发后 资本支出必然是大部分流入AI服务器 AI服务器中CPU:GPU数量必然大幅小于通用服务器 同时AI服务器价格数倍于普通服务器 那么AI浪潮中单位资本支出中CPU的价值量必然大幅降低 而澜起的卖点就在于不同芯片间的互联 比如CPU-GPU或者CPU-存储 并不与GPU数量挂钩 你觉得我吃透了吗?

唉 大哥 真的 多学习不要看了一点调研纪要就来当老师 PCIe英伟达已经不用了:
GPU 与 CPU 内存连接瓶颈
传统上,英伟达和 AMD 的 GPU 通过 PCI 总线与 CPU 通信。由于 CPU 和 GPU 拥有独立的内存域,数据必须通过 PCI 接口在两者之间移动,造成带宽瓶颈。
英伟达 Grace Hopper GH200 GPU
英伟达的 Grace Hopper GH200 GPU 通过 900 GB/秒的 NVLink-C2C 连接解决这一瓶颈,比传统 PCIe 总线快约 14 倍。此外,GH200 实现了单一的 CPU-GPU 共享内存域,消除了数据移动需求。

我是为什么要给你找到原文出处?世界围着你转? 信不信由你 劝你一句 别动不动简中简中ok?

大概是英伟达告诉我的吧 GPU间的互联用不到澜起科技的芯片 另外随便搜一下CXL:CXL的出现很好地解决了这个问题,通过将设备挂载到PCIe总线上,CXL实现了设备到CPU之间的互联,实现了存储计算分离。CXL 还允许 CPU 以低延迟和高带宽访问连接设备上更大的内存池,从而扩展内存。这可以增加 AI/ML 应用程序的内存容量和性能。

是你看不懂中文还是我没写清楚?没看到我写的简化为一比一 重要的是几个cpu几个gpu吗?AI服务器相比普通服务器cpu:gpu这个比值大幅下降 懂?

那我只能说我看不见你的截图了 要不你自己看看你看不看得见?

CPU从数量上增长比GPU慢,但cpu的速度在迭代,内存跟着迭代的原因。单个比DDR5对内存接口芯片的数量比DDR4在增长。由于AI计算,又冒出如PCLe芯片,CXL芯片,CKD芯片。这些相对DDR4来说是增量。

AI配套的四大芯片是纯纯的新增量啊,一季报后股价反应的就是这块啊,怎么就没有新增量啊?是这块目前贡献的业绩还不明显导致的资金犹豫,如果二季度这四大块业务再有三位数增长股价不会不涨的,目前有分歧不是坏事。

澜起做得是不同芯片之间的联结么?澜起做得不是内存与处理器之间的联结么?具体说是Dramn与CPU/GPU的联结么?即便是GPU用量多的服务器量增长也是利好澜起的啊,传统服务器只是澜起的基本盘DDR5的内存接口芯片单价提升都可以覆盖掉传统服务器价值量的降低。用到AI服务器各种芯片是纯增量。

恰恰我不认为CPU会下滑。