实测NPU“空转”,AI PC首个落地应用只调用GPU?

发布于: 雪球转发:0回复:0喜欢:0

去年开始,整个PC产业链,自上而下地都在为AI PC造势。从处理器端的英特尔AMD高通等开始,到下游终端厂商,宣传上清一色的AI PC概念。
从概念上看,硬件上AI PC的一大特征是在传统PC的CPU+GPU基础上,增加NPU加强AI 算力。不过有意思的是,最近某品牌PC机型上的AI助手率先落地,支持云端和本地运算两种模式,确实能够完成宣传上的很多功能。然而在实测本地大模型时,却没有调用NPU算力,完全是使用GPU进行运算。
所以实际上,NPU目前为止依然是“空转”的状态,过去的“传统”PC,理论上似乎也能够使用“AI PC”上的最新功能。那么AI PC中NPU还是一个必要存在吗?
AI PC发展的三个阶段
确实,GPU在AI大模型上有很强的适配性,一直以来,很多开源大模型都能够在家用电脑上部署,利用GPU的算力进行推理。在AI PC的大模型刚刚落地时,使用GPU算力是最为稳妥以及最快的方式。
此前联想集团副总裁张华在发布会上提到,成熟的AI PC需要包括五大条件。其中包括标配CPU+GPU+NPU的本地混合AI算力;内嵌由本地大模型和个性化本地知识库构成的个人大模型;配备本地化个人数据和隐私保护方案;开放的AI 应用生态;内嵌个人Agent(模拟人类行为或指挥的AI程序),多模态自然语言成为主要的交互方式。
他还认为AI PC会有三个发展阶段,第一阶段是从2023年12月到2024年4月,这个阶段被称为“AI Ready”阶段,这个阶段特点是硬件平台的支持CPU+GPU+NPU的混合AI算力,满足终端厂商和第三方应用开发者进行终端AI体验创新。说白了,就是硬件要满足AI需求,软件先画饼。
第二阶段是2024年4月到2024年9月的AI Explore阶段。在这个阶段中,AI Ready的硬件,能够用上个人Agent、个人大模型嵌入AIPC、首批第三方AI应用接入AI小程序平台等,并能够运用CPU+GPU+NPU的混合AI算力,提供基于自然语言交互的个人AI助理服务。
第三阶段是24年9月之后的AI Master/AI Advanced阶段。在这个阶段,首先硬件的混合AI算力持续提升,同时个人大模型的能力进一步提升,AI应用生态大为丰富、商业模式进一步多样化,个人Agent的场景服务范围进一步扩大、服务体验进一步升级,个人AI助理进入随用户使用和体验反馈而快速进阶之路。
所以,AI PC新增的NPU,只是混合算力中的一部分。从算力来看,NPU可以算得上是“战未来”的硬件,而实际AI能够带来哪些颠覆性的体验,才是AI PC的关键。
AI PC有哪些应用了?
目前的AI大模型,普遍是采用云端推理,这很大程度上是由于大模型数据体量巨大,无法部署在本地。而AI PC的概念中,本地大模型就是与目前常见的云端大模型有很大差异的地方。
从个人隐私的角度来看,本地大模型由于数据不上云,所以数据安全性更高,对于一些有保密需求的工作来说可以说是提高工作效率的刚需。
比如用户可以通过本地大模型,读取本地文档,并使用自然语言交互来快速找到文档中所需的信息。还可以通过自然语言交互,来完成修改电脑设置等操作,降低Windows操作系统使用门槛,毕竟很多选项都藏得比较深。
另外,还可以通过上传足够多的文档,构建一个自己的数据库,需要搜索资料或数据时,就可以通过本地的AI助手快速搜索到目标。
最近微软的发布会上,又推出了一个“Copilot+ PC”概念,核心是AI算力+AI Agent( Copilot )。
在微软的展示中,任何东西都能够往Copilot上拖动,并让其分析、总结。当然,AI图片编辑、生成等功能已经是AI大模型的标配了,而微软为windows加入的AI赋能功能中,还有可以称之为“杀手锏”的。
比如AI能够实时读取屏幕显示的所有信息,比如在玩游戏时,可以直接询问AI来获得攻略,AI甚至能理解游戏中的参数、物品等,从而给出相应的策略。
Recall则是令电脑拥有了类似于“时光机”的能力,AI能力的帮助下,Copilot+ PC可以访问电脑上任何看过或者运行过的操作,甚至可以凭借记忆,描述在某个网站上见过图片,AI就能够帮助找出相应的页面截图。而这是基于本地算力以及存储所实现的,能够保障用户隐私。
小结:
AI PC的概念虽然值得考究,但AI的应用要落地在PC上,硬件和软件都无法单独拿出来讨论,AI应用与硬件的结合随着需求提高只会越来越紧密。这样的情况下,NPU的存在形式,发展方向,以及应用的适配,未来将会有更多的可能性。