| 发布于: | 雪球 | 回复:65 | 喜欢:0 |
一般评论别人我不喜欢说太多 既然你质疑 那我就详细说一下 首先从CSP资本开支的角度来说 2022年可以认为全部服务器支出都买通用服务器 简单化一下一台服务器一个CPU一个GPU 2024年AI爆发后 资本支出必然是大部分流入AI服务器 AI服务器中CPU:GPU数量必然大幅小于通用服务器 同时AI服务器价格数倍于普通服务器 那么AI浪潮中单位资本支出中CPU的价值量必然大幅降低 而澜起的卖点就在于不同芯片间的互联 比如CPU-GPU或者CPU-存储 并不与GPU数量挂钩 你觉得我吃透了吗?
唉 大哥 真的 多学习不要看了一点调研纪要就来当老师 PCIe英伟达已经不用了:
GPU 与 CPU 内存连接瓶颈
传统上,英伟达和 AMD 的 GPU 通过 PCI 总线与 CPU 通信。由于 CPU 和 GPU 拥有独立的内存域,数据必须通过 PCI 接口在两者之间移动,造成带宽瓶颈。
英伟达 Grace Hopper GH200 GPU
英伟达的 Grace Hopper GH200 GPU 通过 900 GB/秒的 NVLink-C2C 连接解决这一瓶颈,比传统 PCIe 总线快约 14 倍。此外,GH200 实现了单一的 CPU-GPU 共享内存域,消除了数据移动需求。
主要是这几类高速互联芯片目前预测的市场规模都很小,业绩贡献有,但会很小,单个产品估计一年两内营收占比都难以突破10%,主要业绩还是靠内存接口芯片。这个细分行业之所以澜起强一方面是他技术的确不错,另一方面是市场空间太小,容不下太多玩家。
澜起科技技术很强 也的确受益与AI 因为AI不仅仅需要更快的gpu间互联 cpu和其他部件间的互联 存储卡间互联也很重要 但是通用服务器未来增长缓慢甚至不增长 则是澜起的确定性利空 他只能是一个跟随整体半导体节奏走的票 走不出大alpha
CPU从数量上增长比GPU慢,但cpu的速度在迭代,内存跟着迭代的原因。单个比DDR5对内存接口芯片的数量比DDR4在增长。由于AI计算,又冒出如PCLe芯片,CXL芯片,CKD芯片。这些相对DDR4来说是增量。