nemolei 的讨论

发布于: 雪球回复:14喜欢:59
ai计算中 矩阵计算比较多
普通计算中 就是普通的浮点计算
你要问本质不同 所有的芯片 最终都是0和1的计算
但是ai芯片针对矩阵计算进行过优化 而且有自己的计算平台
现在流行的是cuda 英伟达推出的
通过cuda可以方便的调用底层硬件 计算
但是你要说普通cpu能不能计算矩阵 当然可以
所以本质都是一样 只是ai芯片进行过优化 可以更快 更方便的进行相关计算

热门回复

这就叫专业.jpg

2023-06-29 14:10

cuda是开放编程规范, 是nv提出的, 但不是nv专有[加油] 。

2023-06-29 14:08

cuda是专门用来ai计算的平台 和gpu cpu没有关系
必须运行在英伟达上面

2023-06-29 14:07

1 对ai计算进行了优化
2 有专门的编程平台
3 底层本质没有不同 最终都是0和1的与非门计算
你这个理解能力 真的差

2023-06-29 16:29

请问设计、仿真软件、批量生产上还有没有大的区别?我直觉上觉得英特尔cpu更难做,它想做个AI芯片是随随便便的事情。显然我直觉是错的

2023-06-29 15:45


CUDA才是基本盘,付出总有收获。

2023-06-29 14:40

推理卡和训练卡是不一样的 有的显卡不能跑训练,但是可以执行训练的结果,训练要的算力和价格要远高于推理,但训练几乎一定要CUDA,所以NV更赚钱

2023-06-29 14:19

因为你不懂 你会觉得是个显卡就能拿来做ai计算
如果你这种去买股票 会越买越亏 很不平衡
觉得amd家也是卖显卡的 为啥涨不过nv

2023-06-29 14:19

intc和appl不做gpgpu是不支持cuda的。 现在做gpgpu的一些创业公司其产品是支持cuda的。

2023-06-29 14:18

我表达的意思很明确
现在的ai芯片都是nv的显卡
其它家的显卡基本不用来做ai计算
你不服气 看股价就知道了
同样做显卡 amd用不了cuda 就没人拿a卡做ai计算