发布于: 雪球转发:0回复:1喜欢:0
回复@未来梦想家-: 端侧几百万参数的大模型,跟云端现在1万亿未来几十万亿参数的大模型怎么比,觉得端侧能做起来的 都是没想明白的,大模型首先就是要大,端侧别说现在就算未来也不能做得起来//@未来梦想家-:回复@未来梦想家-:更新一下:不一样的叙事,不同于GPT的云端大算力。类似贾维斯的个人管家,第一感觉是这样,离线才可以实现深度个人化。端侧AI是终端设备上进行的轻型模型运用,AI模型运行于PC,分析个人环境下输入的数据,提供定制化服务的同时,保障个人隐私与安全。(隐私和安全、低延时、可靠性、低成本。)
端侧AI场景广泛,包括智能手机、PC、汽车、XR以及物联网等终端品类。不同产品类型也对芯片性能与成本提出更多的要求。当前端侧大模型仍存挑战。除了对处理器算力的要求,其对内存和存储空间的大量占用,势必要求终端设备硬件配置升级,恐大幅推高购机成本。对于依赖电池供电的移动终端,大模型还面临能耗的挑战,行业普遍认为,电池密度是短期最难突破的
PS:各家手机和芯片厂商也已经分布过一些产品了
$高通(QCOM)$ $谷歌C(GOOG)$ $英特尔(INTC)$
引用:
2023-12-07 14:37
谷歌那个大模型可能让手机端侧AI提前啊,这个是不是亮点…关注端侧算力和芯片?有什么标的吗,之前听人写过瑞芯
Gemini Nano 将内置于 Google Pixel 8 系列产品中,可以在手机本地实现(Nano为端侧运行剪裁而来,具有18亿、32.5亿两个参数的版本):
在录音机应用程序中进行总结,该应用程...

全部讨论

2023-12-07 20:43

对, 现在端侧成本和算力都是问题,塞不进去。
刚刚看到一篇文章里面的评述:求解未来升级路线,栾剑认为,首先需要增加内存容量和带宽,使终端设备有机会放下更大的模型;其次是提升或优化算力,更高效地支持大模型的网络结构与算子;此外,软件上,要不断探索模型的压缩和量化,以及推理算法的改进,使得同样效果条件下的算力需求降低。