在下不才极度厌蠢 的讨论

发布于: 雪球回复:66喜欢:0
澜起科技我也拿了好久 最后还是出了 但是CPU这个东西在GPU的挤压下 市场份额会越来越小 资本支出总共就那么多 AI多出来的 就是非AI里挤出来的

热门回复

一般评论别人我不喜欢说太多 既然你质疑 那我就详细说一下 首先从CSP资本开支的角度来说 2022年可以认为全部服务器支出都买通用服务器 简单化一下一台服务器一个CPU一个GPU 2024年AI爆发后 资本支出必然是大部分流入AI服务器 AI服务器中CPU:GPU数量必然大幅小于通用服务器 同时AI服务器价格数倍于普通服务器 那么AI浪潮中单位资本支出中CPU的价值量必然大幅降低 而澜起的卖点就在于不同芯片间的互联 比如CPU-GPU或者CPU-存储 并不与GPU数量挂钩 你觉得我吃透了吗?

唉 大哥 真的 多学习不要看了一点调研纪要就来当老师 PCIe英伟达已经不用了:
GPU 与 CPU 内存连接瓶颈
传统上,英伟达和 AMD 的 GPU 通过 PCI 总线与 CPU 通信。由于 CPU 和 GPU 拥有独立的内存域,数据必须通过 PCI 接口在两者之间移动,造成带宽瓶颈。
英伟达 Grace Hopper GH200 GPU
英伟达的 Grace Hopper GH200 GPU 通过 900 GB/秒的 NVLink-C2C 连接解决这一瓶颈,比传统 PCIe 总线快约 14 倍。此外,GH200 实现了单一的 CPU-GPU 共享内存域,消除了数据移动需求。

我是为什么要给你找到原文出处?世界围着你转? 信不信由你 劝你一句 别动不动简中简中ok?

大概是英伟达告诉我的吧 GPU间的互联用不到澜起科技的芯片 另外随便搜一下CXL:CXL的出现很好地解决了这个问题,通过将设备挂载到PCIe总线上,CXL实现了设备到CPU之间的互联,实现了存储计算分离。CXL 还允许 CPU 以低延迟和高带宽访问连接设备上更大的内存池,从而扩展内存。这可以增加 AI/ML 应用程序的内存容量和性能。

是你看不懂中文还是我没写清楚?没看到我写的简化为一比一 重要的是几个cpu几个gpu吗?AI服务器相比普通服务器cpu:gpu这个比值大幅下降 懂?

那我只能说我看不见你的截图了 要不你自己看看你看不看得见?

我尼玛,澜起是做内存芯片的,和CPU有啥关系?

AIPC会增加CKD芯片,这块不知道您怎么看对澜起科技的未来业绩贡献?

你说的这些从澜起的角度都没问题 但在我说的cpu占比下降的大前提下 这些利好都会大打折扣

资本支出恒定也好 增长也罢 CPU相关产业链的增速是必然不及GPU相关产业链的 除非等到IAI PC边缘计算普及的那天