发布于: 修改于:雪球转发:1回复:25喜欢:6
回复@无晴无风雨: 网页链接 Google不直接卖TPU,而是提供Cloud TPU,不过Cloud GPU和Cloud TPU比例数据没有披露。
网页链接 这篇介绍在TPU上运行PyTorch代码,网页链接 这篇介绍在TPU上运行Tensorflow代码, 网页链接 这篇介绍在TPU上运行JAX代码。
部分证实我的猜想,torch们隔离了硬件层。 //@无晴无风雨:回复@仓又加错-刘成岗:举个例子,tpu那套就和gpu很不同。也没看到什么外部用户。这已经是做的最好的除gpu以外的加速器了。
“硬件隔离层”这个软件壁垒比普通人想象的高得多,其中一个重要的点就是软件的bug。用户多的硬件上的软件生态bug少很多。
引用:
2024-02-22 19:09
英伟达现在赚的是垄断的钱,但是随着后面一定会有人跟上,他不会一直拿所有市场的。迟早会有别人抢夺他的份额,所以按计算器算PE什么的也不正确。不能拿现有业绩算PE。

全部讨论

02-23 14:56

谢谢仓老师找的链接。
我是这个行业的工程师。准确的说,有“隔离层”,但是这个抽象层并没有完全隔离性能和可用性。
TPU不好用可以从没听说过外部大客户成功案例看出来。如果从本质出发,还是因为对最主流的framework pytorch支持的不好。pytorch的支持是通过pytorch xla实现的,但是pytorch xla做得很差。例子可以看:网页链接。 简单说很多operator不支持/支持的不好。这可能和google的工程师文化也有关,拉不下来脸伺候大客户。
另外,xla的全局编译比pytorch的eager mode开发者体验差很多。虽然性能有提升,但是值不值得牺牲开发者体验还是一个问题。

02-23 09:45

国产AI芯片也都有自己的cuda,可以用pytorch的,只是用的人少

Google有提供公有云TPU,所以相当于在公开市场是有售卖的,其实公有云TPU和GPU比例是买公有云的客户和GPU供应决定的,甚至Google TPU公有云价格更低,但是至少Google公有云并没有多少从TPU收益(Google 公有云并没有赶上亚马逊和微软),我个人觉得Google TPU更多是给Google 搜索内部自己用的多