在下不才极度厌蠢 的讨论

发布于: 雪球回复:66喜欢:0
澜起科技我也拿了好久 最后还是出了 但是CPU这个东西在GPU的挤压下 市场份额会越来越小 资本支出总共就那么多 AI多出来的 就是非AI里挤出来的

热门回复

一般评论别人我不喜欢说太多 既然你质疑 那我就详细说一下 首先从CSP资本开支的角度来说 2022年可以认为全部服务器支出都买通用服务器 简单化一下一台服务器一个CPU一个GPU 2024年AI爆发后 资本支出必然是大部分流入AI服务器 AI服务器中CPU:GPU数量必然大幅小于通用服务器 同时AI服务器价格数倍于普通服务器 那么AI浪潮中单位资本支出中CPU的价值量必然大幅降低 而澜起的卖点就在于不同芯片间的互联 比如CPU-GPU或者CPU-存储 并不与GPU数量挂钩 你觉得我吃透了吗?

唉 大哥 真的 多学习不要看了一点调研纪要就来当老师 PCIe英伟达已经不用了:
GPU 与 CPU 内存连接瓶颈
传统上,英伟达和 AMD 的 GPU 通过 PCI 总线与 CPU 通信。由于 CPU 和 GPU 拥有独立的内存域,数据必须通过 PCI 接口在两者之间移动,造成带宽瓶颈。
英伟达 Grace Hopper GH200 GPU
英伟达的 Grace Hopper GH200 GPU 通过 900 GB/秒的 NVLink-C2C 连接解决这一瓶颈,比传统 PCIe 总线快约 14 倍。此外,GH200 实现了单一的 CPU-GPU 共享内存域,消除了数据移动需求。

主要是这几类高速互联芯片目前预测的市场规模都很小,业绩贡献有,但会很小,单个产品估计一年两内营收占比都难以突破10%,主要业绩还是靠内存接口芯片。这个细分行业之所以澜起强一方面是他技术的确不错,另一方面是市场空间太小,容不下太多玩家。

他并不是做内存芯片的 是做内存模组芯片以及各种互联芯片的 我之所以说互联是因为再说AI相关的产品

澜起科技技术很强 也的确受益与AI 因为AI不仅仅需要更快的gpu间互联 cpu和其他部件间的互联 存储卡间互联也很重要 但是通用服务器未来增长缓慢甚至不增长 则是澜起的确定性利空 他只能是一个跟随整体半导体节奏走的票 走不出大alpha

CPU从数量上增长比GPU慢,但cpu的速度在迭代,内存跟着迭代的原因。单个比DDR5对内存接口芯片的数量比DDR4在增长。由于AI计算,又冒出如PCLe芯片,CXL芯片,CKD芯片。这些相对DDR4来说是增量。

简中网络随便搜一下就冒充英伟达是吧[大笑]

从调研纪要来看,lpddr5不用ckd

这个说的确实比较中肯

这个目前没有证实在ai pc或ai手机属于必须的内存芯片。
理论上ddr5内存(lpddr5)速率超过6400的时候,需要ckd芯片。
不知有木有相关的权威文章或者拆解视频,可以看看