我是为什么要给你找到原文出处?世界围着你转? 信不信由你 劝你一句 别动不动简中简中ok?
GPU 与 CPU 内存连接瓶颈
传统上,英伟达和 AMD 的 GPU 通过 PCI 总线与 CPU 通信。由于 CPU 和 GPU 拥有独立的内存域,数据必须通过 PCI 接口在两者之间移动,造成带宽瓶颈。
英伟达 Grace Hopper GH200 GPU
英伟达的 Grace Hopper GH200 GPU 通过 900 GB/秒的 NVLink-C2C 连接解决这一瓶颈,比传统 PCIe 总线快约 14 倍。此外,GH200 实现了单一的 CPU-GPU 共享内存域,消除了数据移动需求。
大概是英伟达告诉我的吧 GPU间的互联用不到澜起科技的芯片 另外随便搜一下CXL:CXL的出现很好地解决了这个问题,通过将设备挂载到PCIe总线上,CXL实现了设备到CPU之间的互联,实现了存储计算分离。CXL 还允许 CPU 以低延迟和高带宽访问连接设备上更大的内存池,从而扩展内存。这可以增加 AI/ML 应用程序的内存容量和性能。
CPU从数量上增长比GPU慢,但cpu的速度在迭代,内存跟着迭代的原因。单个比DDR5对内存接口芯片的数量比DDR4在增长。由于AI计算,又冒出如PCLe芯片,CXL芯片,CKD芯片。这些相对DDR4来说是增量。
AI配套的四大芯片是纯纯的新增量啊,一季报后股价反应的就是这块啊,怎么就没有新增量啊?是这块目前贡献的业绩还不明显导致的资金犹豫,如果二季度这四大块业务再有三位数增长股价不会不涨的,目前有分歧不是坏事。
澜起做得是不同芯片之间的联结么?澜起做得不是内存与处理器之间的联结么?具体说是Dramn与CPU/GPU的联结么?即便是GPU用量多的服务器量增长也是利好澜起的啊,传统服务器只是澜起的基本盘DDR5的内存接口芯片单价提升都可以覆盖掉传统服务器价值量的降低。用到AI服务器各种芯片是纯增量。