发布于: 雪球转发:0回复:22喜欢:0
回复@仓又加错-刘成岗: torch们是隔着cuda来去调用GPU的[捂脸],xxx.cuda(device)。CUDA一直都是NVDA的护城河,CUDA很多功能都和硬件深度耦合的,其他厂不是不想干,而是这东西必须得和硬件结合,没硬件就没法搞CUDA,硬件功能一变你就得跟着变,所以说到底这东西最后只能是硬件厂自己搞,像AMD自己也有,其他第三方厂子搞根本不划算。//@仓又加错-刘成岗:回复@xishier:PyTorch tensorflow这些machine learning framework会隔离硬件层吧?
引用:
2024-02-22 19:09
英伟达现在赚的是垄断的钱,但是随着后面一定会有人跟上,他不会一直拿所有市场的。迟早会有别人抢夺他的份额,所以按计算器算PE什么的也不正确。不能拿现有业绩算PE。

全部讨论

我再去社区确认一下。

02-22 21:31

兼容CUDA接口就可以,现在很多GPU厂商就是这么干的

02-22 20:55

最后torch们还是妥协,事实上也支持用cuda来做这个拓展后的硬件隔离层