AI PC和假人

发布于: 修改于:雪球转发:5回复:0喜欢:2

很多年之前,微软就已经推出过适应ARM芯片的windows操作系统,但让人奇怪的是这么多年过去,这一种号称的省电,耐用的arm芯片的平板电脑,始终都没有流行起来。平板电脑仍旧是苹果ipad的天下,然后再加上花样的安卓平板。

最近,他们在炒AI PC,说是高通的AI PC能大量地侵食INTELAMD的市场份额,于是高通和ARM的股票在不断地疯涨(INTEL和AMD大跌)。

这不就是在炒冷饭么?

然后看到了一个新闻,说这一种AI PC在运行windows ARM版的时候出现很多兼容性问题,导致很多游戏和应用运行不了。

这不是一个老问题么?X86架构是复杂指令集,ARM的是精简指令集,简单来说,就是ARM的CPU会少几块肉,并不能拿来跟X86比,也可以理解为,由于ARM少了几块肉,所以比较省电一些。之前有一些报道,微软会给双方构建一个虚似环境来兼容双方的设备,然而这一种包装再包装的环境下会导致性能下降,功耗下降,稳定性差。

因此这么多年,windows 的arm版都没有流行起来,肯定是因为这里面有一些一直都没有解决得到的问题。

很多年前,有windows phone的时候,有一些软件是同时推出安卓版,苹果版,WP版,但是WP版上会少很多功能,开始软件方说:WP系统不支持这些功能,然后就没下闻了。

当时,我想到了一点,为什么安卓和苹果手机的软件容易生产出来,不仅是程序员的问题,也有可能是机制问题,如果WP软件开发起来特别费劲,那就注定成本更高,所以更难吸引人才。不仅仅是平台的推广难,连程序员也更难培养,就更难有软件产生。

当仅有windows一家时,这些软件公司,只需要一套人马就能够生产和维护好这些软件,如果现在要他们搞两套程序员?他们真能干得了吗?全球这么多个windows软件,如果说是软件设计方的问题,而不是微软的windows问题的话,你说他们如何解决这个问题?我觉得他们可能会摆烂。耗那么多钱,就为争夺一个没有人的市场?

如果这些问题,那么容易解决,同理,为何没有人搞一些Linux上面用的软件?还不是因为太难,成本太高,得不偿失,所以别人就不搞了。

所以这个AI PC也是一个不成熟的产品,有些人买来了这个东西之后,就发现这个不行,那个不行。那还要来干嘛?手机可以玩,电脑可以玩,为何要折腾它?

这么的这个概念,就让高通的股价暴涨了,那如果这个东西又是一个坛花一现的玩具?正如别人所说,那个苹果的VR,很多人用了几次之后,就不再用了,想卖出去了。同理,3D电影也是一种过时的时毛。有些人还真的看不了这一种3D,正如苹果的那个VR一样,还要专门特制近视镜片,太重压颈椎,太容易疲劳,太操劳,虽然很炫,但这些问题会让人扔掉它。

没有人会用一件玩具浪费太多金钱。

最近,又在传,有一些搞chatgpt之类的大模型的初创公司,难以开展业务……这类chatgpt最适应的场景,始终是诈骗,将来的应用面,最适合用来娱乐。

来说说chatgpt之类的缺点:

1、无法解决同质化和准确性的均衡性

如果说它能生成一些什么东西,那这些东西一定就是批量化的,同质化的。就算是说有多少万个参数,会生成很多花样。但如果参数是一样的,它究竟是出相同的答案,还是不同的答案?如果是相同,就会导致同质化;如果是不同,那就是会导致结果不准确。

人脑是不同的,它既有自己的判断,也有逻辑性,也会有基因突变(说谎)。

同质化会令下游软件商无法开展生意,无法形成多元性。而不准确性会让别人不敢应用于重要场景。2个都会导致下游软件商难盈利。仅能用来娱乐和消遣。

2、人的情感动物,不会喜欢假人

如果说,某个主持是AI,我相信别人不会喜欢看这些AI假人。电视,电影上的明星,之所以被人追求,被人崇拜,是因为它们是真人,别人会渴望成为他们,才会爱上他们,别人渴望与他们交往,才会爱上他们。他们跟自己都是人类,是可以交配的同类。他们会乐意打赏这一类的人,但他们不会打赏一个假人。正如你不会送钱给街边的一条狗。

基于这一条,就会否决很多的假设的美好的事情。

现在他们假设将来会有很多的机器人,而这些机器人会陪伴人类,成为人类的精神伴侣。我觉得这种假设纯粹就是瞎扯。人是不会喜欢机器的。你去马路边上听听,有谁喜欢那些不断循环播放的“大声公”?甚至是有些马路上,会有中文播“红灯停,绿灯请过马路”。这些都是没有情感的机器,听第一次或许会觉得新鲜,但第二次就会乏味,第三次就会让人很烦了。人有独立性,如果是机器,会让人觉得被骗。《楚门的世界》看过没有?无论有多舒服的世界,假的始终是假的。

人是人,机器是机器。

有些机构,搞了些很虚的在线客服,但这些客服,是一问三不知的,完全就是在浪费时间,我觉得这一种客服,纯粹就是用来忽悠人类,如果是用chatgpt,那可能不止是忽悠,更有可能是欺骗。你如何保证它说的没错?如果他错了,他会不会承担责任?如果是真人,你还可以投诉他,说他说错,那如果是chatgpt之类的人工智能给出一个错误答案?又或者说,有些人不想让别人知道答案,想干预,如果这一种干预很频繁,那是否会像百度上的过滤词一样?

有人说将来能全自动驾驶,但是,如果出了事故,如何承担责任?是一句话:软件bug就带过了?还是什么别的原因?毕竟那车上没有司机,扣谁的分?这些都是大问题。看到有一些无人驾驶的车,连地上有个坑都判断不出来,还冲进去了。可想现在的有多儿戏。再看那几个电车几傻,竟然还说了“无法准确判断静止物体”。所以会出现撞柱子的问题。其实这些AI都很初级,就是一条大马路,他们就能跟着线跑,但万一没线?但是世间万物,意外特别多,还有很多投机取巧的事件,哪有那么简单?

小时候曾听到一个笑话,说妈妈叫孩子去买酱油,说马路上没车才过马路,结果过了很久,孩子都没有回来,原因是马路上的车一直都没停过,所以孩子很听话,就不过,就一直等。如果是AI,你觉得它是冲出马路,还是一直等?程序上,肯定是一直等,但一直等就等于不干活了。而实际场景,就是示意,钻缝,冲过去。

3、AI的隐私和造假的问题

前一段日子,看到有个报道,说某个监管,要求那些能制造逼真效果的软件,需要在视频中加入鉴定方案。又或者是在视频编码中加入识别的标识,以区分AI的视频。不然的话,将来谁都能在线地造假,伪造一些新闻出来,这是很恐怖的事情。

视频编码,无非就是那几个软件大头,那将来他们可能会在底层的时候标注视频的真伪,有没有被编辑,是不是原码文件。但如果是这样干的话,将来就等于是打击了这个行业,而这个行业正是AI最大的前景。估计将来就只有影视公司里才有这些“方便造假”的设备。相当于是卖烟酒的专卖资格一样。

AI的数据都是来源于侵犯隐私,至于什么时候会被秋后算帐说AI训练的数据违法还是什么人就不知道了,这全凭看他们的心情。

总之,个人觉得这个AI的概念,仅仅最终的应用面是诈骗和娱乐,并不值那么多钱,所以认为这一种几万亿的市值,是一种泡沫。维持泡沫的观点不变。

最近觉得,可能道指的那一堆老古懂更加有投资价值。人家那种需求是很硬的,不会突然间消失的。我更佩服这些老古董,涨了那么多年,涨了那么多,PE仍然是10来倍。怎么能这么稳的呢?

$高通(QCOM)$

$英伟达(NVDA)$

$微软(MSFT)$