网页链接 Google不直接卖TPU,而是提供Cloud TPU,不过Cloud GPU和Cloud TPU比例数据没有披露。
网页链接 这篇介绍在TPU上运行PyTorch代码,网页链接 这篇介绍在TPU上运行Tensorflow代码, 网页链接 这篇介绍在TPU上运行JAX代码。
部分证实我的猜想,torch们隔离了硬件层。
您提供的链接指向了一篇名为 "The Grand Illusion: The Myth of Software Portability and Implications for ML Progress" 的研究论文。这篇论文由 Fraser Mince、Dzung Dinh、Jonas Kgomo、Neil Thompson 和 Sara Hooker 共同撰写,探讨了机器学习(ML)软件框架在不同硬件类型上的可移植性问题。研究者们通过大规模研究主流 ML 框架(如 TensorFlow、PyTorch 和 JAX)在不同硬件上的可移植性,发现框架在移植到其他硬件时可能会丢失超过 40% 的关键功能,且即使功能可移植,性能的下降也可能极端严重。
研究的主要发现包括:
PyTorch 和 TensorFlow 在 GPU 上的可移植性问题尤为突出,例如在 TPU 上,PyTorch 的 44% 基准测试功能部分或完全失败。即使功能可移植,性能差距也显著,例如 PyTorch 在 GPU 到 TPU 的迁移中,81.4% 的功能表现出超过 10 倍的减速。JAX 在 TPU 上的性能表现更好,91.8% 的 JAX 函数集在 TPU 上更快。硬件和软件的专业化趋势对 ML 研究的创新产生了阻碍。
这篇论文强调了在硬件和软件专业化日益增长的背景下,进行比较性评估的重要性,并指出未来在设计既高效又可移植的工具时,量化可移植性分析将变得更加重要。
如果您有关于这篇论文的具体问题或需要更详细的信息,请告诉我,我会尽力帮助您。
网页链接 Google不直接卖TPU,而是提供Cloud TPU,不过Cloud GPU和Cloud TPU比例数据没有披露。
网页链接 这篇介绍在TPU上运行PyTorch代码,网页链接 这篇介绍在TPU上运行Tensorflow代码, 网页链接 这篇介绍在TPU上运行JAX代码。
部分证实我的猜想,torch们隔离了硬件层。
现在AGI这么火热的时候,竞争对手是没时间发展出一个另外的AI加速通用硬件架构然后推广出一个生态系统的,英伟达在市场上部署的这么多GPU,反过来又绑定了客户软件开发资源主要投入在这些花了大价钱部署的硬件GPU上,替代那里有那么容易,除非AGI发展停滞一段时间,但真等停滞期,愿意投入的就会少了
迟早是多少年???
寒武纪迟早就追上来,抢了英伟达的份额。
怕个毛线,等竞争对手真来了再说
amd花了十多年才从英特尔手里抢了点肉出来,所以你这个迟早是多早?
问题是,你不把估值炒上去,一级市场的VC就不敢投可能成为竞争对手的项目。也就不会产生竞争对手。
其实最关键的是ai应用能不能挣到钱,各大巨头去年今年砸钱买卡,如果年底还看不到ai应用赚钱的希望明年可能就不会砸这么多钱买卡了。ai行业应该是ai应用收入大于硬件投入,现在完全是反的,而且比例夸张。最牛的chatgpt年化营收只有十几亿,而且用户量已经瓶颈了
这么多年了,在操作系统上,也没见谁把微软干掉了
最可怕的是它软硬结合!
股市里后知后觉是傻子,超前十年就是疯子