发布于: 修改于: 雪球转发:0回复:0喜欢:0
回复@仓又加错-刘成岗: 谢谢仓老师找的链接。
我是这个行业的工程师。准确的说,有“隔离层”,但是这个抽象层并没有完全隔离性能和可用性。
TPU不好用可以从没听说过外部大客户成功案例看出来。如果从本质出发,还是因为对最主流的framework pytorch支持的不好。pytorch的支持是通过pytorch xla实现的,但是pytorch xla做得很差。例子可以看:网页链接。 简单说很多operator不支持/支持的不好。这可能和google的工程师文化也有关,拉不下来脸伺候大客户。
另外,xla的全局编译比pytorch的eager mode开发者体验差很多。虽然性能有提升,但是值不值得牺牲开发者体验还是一个问题。//@仓又加错-刘成岗:回复@无晴无风雨:网页链接 Google不直接卖TPU,而是提供Cloud TPU,不过Cloud GPU和Cloud TPU比例数据没有披露。
网页链接 这篇介绍在TPU上运行PyTorch代码,网页链接 这篇介绍在TPU上运行Tensorflow代码, 网页链接 这篇介绍在TPU上运行JAX代码。
部分证实我的猜想,torch们隔离了硬件层。
引用:
2024-02-22 19:09
英伟达现在赚的是垄断的钱,但是随着后面一定会有人跟上,他不会一直拿所有市场的。迟早会有别人抢夺他的份额,所以按计算器算PE什么的也不正确。不能拿现有业绩算PE。