2023-12-07 20:43
对, 现在端侧成本和算力都是问题,塞不进去。
刚刚看到一篇文章里面的评述:求解未来升级路线,栾剑认为,首先需要增加内存容量和带宽,使终端设备有机会放下更大的模型;其次是提升或优化算力,更高效地支持大模型的网络结构与算子;此外,软件上,要不断探索模型的压缩和量化,以及推理算法的改进,使得同样效果条件下的算力需求降低。
端侧AI场景广泛,包括智能手机、PC、汽车、XR以及物联网等终端品类。不同产品类型也对芯片性能与成本提出更多的要求。当前端侧大模型仍存挑战。除了对处理器算力的要求,其对内存和存储空间的大量占用,势必要求终端设备硬件配置升级,恐大幅推高购机成本。对于依赖电池供电的移动终端,大模型还面临能耗的挑战,行业普遍认为,电池密度是短期最难突破的
PS:各家手机和芯片厂商也已经分布过一些产品了
$高通(QCOM)$ $谷歌C(GOOG)$ $英特尔(INTC)$
谷歌那个大模型可能让手机端侧AI提前啊,这个是不是亮点…关注端侧算力和芯片?有什么标的吗,之前听人写过瑞芯
Gemini Nano 将内置于 Google Pixel 8 系列产品中,可以在手机本地实现(Nano为端侧运行剪裁而来,具有18亿、32.5亿两个参数的版本):
在录音机应用程序中进行总结,该应用程...
对, 现在端侧成本和算力都是问题,塞不进去。
刚刚看到一篇文章里面的评述:求解未来升级路线,栾剑认为,首先需要增加内存容量和带宽,使终端设备有机会放下更大的模型;其次是提升或优化算力,更高效地支持大模型的网络结构与算子;此外,软件上,要不断探索模型的压缩和量化,以及推理算法的改进,使得同样效果条件下的算力需求降低。