发布于: 修改于:雪球转发:2回复:20喜欢:11

AIPC这个概念的实质其实非常简单:就是要在PC这个算力规模的设备上,运行一个完全本地化的大模型(百亿级参数),在本地敏感数据不需要上传云端的大前提下,实现与ChatGPT类似的人机对话和AIGC能力。

这个逻辑的核心是说,客户的PC上存在着大量无法离开本地的敏感数据,这些东西不能拿给OpenAI或者微软啥的去看,但是又需要通过AI来实现很多问答、处理之类的工作,所以你的大模型训练可以在云端,但推理必须要在本地跑,这样才能保证客户的数据是安全的。

否则的话,其实任何PC都可以借助于云端大模型来使用AI功能,那么AIPC的概念其实就不怎么成立了。

$英特尔(INTC)$ 这一代的酷睿Ultra,NPC这块的算力其实还是不够的,真要跑个百亿级参数的模型,恐怕还远不能达到游刃有余的程度,不过可预见的未来,这块的算力应该会被迅速拉高到目前的几倍甚至几十倍的量级。

对于$联想集团(00992)$ 来说,AIPC这个概念确实还是有一定价值的,如果能让十几亿的存量PC用户有动力去换机,不用多,PC市场年销量能从去年的2.5亿不到,回到21年的3.5亿左右,那就意味着百分之三四十的销量增长空间。如果能进一步,让PC用户的换机周期从5年,缩到譬如2年左右,那这个红利就比较可观了。

但另一方面,就跟当年的wintel时代一样,现在芯片掌握在英特尔(包括高通)手里,软件和模型掌握在微软手里,联想单纯只是卖机器的话,能得到的红利还是比较有限的。真想要得到比较大的好处,还得看看有没有其他更好的获利逻辑——譬如类似于 ChatGPT应用商店那样,进入到AI应用的分发环节什么的。

全部讨论

最正统的 AIPC 实际上就是大内存版的 Mac 吧。64G 的 M1 Max,400G 内存带宽,这 wintel 除了价格之外怎么打

01-15 13:28

只考虑算力吗?100亿参数的fp32模型需要40GB的显存,fp16需要20GB显存,这还只是模型本身,不算其他开销。

01-16 12:48

总结的好,就是大盘这波下跌什么时候能到底啊?希望今天人工智能能起来

01-15 17:02

最终还是要看应用场景,目前看来最大的还是游戏和设计剪辑类,前者也最能激发换机需求,后者可能都会通过云服务方式使用了。像面部解锁这类看起来最适合本地的场景都偏鸡肋。
个人感觉AIPC的换机预期都太高太乐观了

01-17 13:39

雨枫哥,国产算力芯片竞争力和机会怎么看?

关键,本地化的大模型怎么更新?一次更新几百个G?

我觉得是对的