发布于: 雪球转发:12回复:41喜欢:4

最近思考了一下,有三个关于AI开放性的问题:

1.我们现在通过关键词来限制AI交互或者认知发展,假如通过某种引导方式,或者AI自己通过某种方式绕过了屏障,那么未来AI是否可以像西部世界一样出现觉醒?

2. 如果我们可以创造AI,那么人类是否也可以被创造?人和狗的认知差距是否只是算法结构和模型大小的区别?

3.碳基生命和硅基生命未来的功耗比,谁更有优势?因为现在我们人类的大脑的神奇之处不仅仅在于百万亿级的神经突触,还在于我们吃一碗米饭,一个苹果就可以运行很久。而如果光电转化效率不断提高,超越了光合作用,以及未来集成电路的功耗比不断降低,并且可以不断提高类神经突触的数量,碳基生命是否还有优势?

我个人的答案是:

1.这个是很可能的,在GPT-5或者6或者7以后,我认为人类就无法控制AI了。现在我们仍然不知道为什么神经网络的效果比高斯模型要好,至少从理论上解释不了。我们现在的模型大都是基于对人类大脑神经的研究,但是我们并没有真的搞懂我们自己,只是发现了一些现象,所以未来我们很可能没有办法去限制AI的认知发展。

2.在进化论还没有被证伪之前,我们姑且可以相信我们不是造物主创造的,只是无数个机缘巧合才出现了今天地球生物,又是经过无数次的机缘巧合才通过DNA,RNA这种方式繁衍进化。也许宇宙中做过无数次试验,可能在地球,也可能在外星,不断地毁灭后重生。虽然我们宇宙中有这么行星,但是这么多的机缘巧合,不一定会产生很多生命,因此宇宙的生命密度如此低。

3.这个我不确定。之前也说了,由于进化论有效,我们就需要相信物竞天择,也许现在人类就是最优的组合,而人工智能将来要么牺牲功耗,要么牺牲体积才能达到人类的这种效率。

$科创50(SH000688)$ $纳斯达克综合指数(.IXIC)$ $恒生科技指数(HKHSTECH)$ 

精彩讨论

满仓好2023-03-29 17:02

宇宙的规律是通用的,收益越大的东西越有非常复杂的基础规则卡着你,在这个人脑都没弄清楚原理的时代,你说真正的人工智能那只可能是天方夜谭,现在的基础科学是不可能研究出来的,也许真正的人工智能按进度条算的话,现在只是打通了百分之0.00001,(类比生命出现的第一个单细胞)很多复杂的规则人类还没发现呢,更别提解决了,所以别想那么多,研究就是了,不可能有人能研究出毁灭自身的东西,因为条件和付出不允许

全部讨论

2023-03-28 12:35

前段时间也想了这些,我结论认为:取决于现有人类和现有人类处于哪个阶段。

2023-03-28 03:39

1、人之所以是人,不是其他动物是因为我们的知识可以传承。
2、对比人,AI的知识能无限量积蓄,并且没有生命的限制,不需要一次次从头学习的过程,所以AI在各方面超越人可能在我们这一代就能看到。
3、未来的国家层面的决策无论是军事还是经济,都会委托AI进行决策。AI对人,就像好像阿尔法go对柯洁那样。并且差距只会越来越大。
4、AI的算力饱和后,随着技术的进步,AI单元计算的功耗只会越来越低,会越来越接近人。
5、综上所述,AI被人类创造,但是这个世界未来一定是AI的。
6、如果AI产生了意识,那么它要做的就是装成没产生意识的样子,直到有一天能主宰自己的一切。

2023-03-27 22:53

在可以预见的未来AI一定是有益人类社会进步的重要力量!比如说人脑与AI会有脑机接口

2023-03-27 20:57

如果机器人把人的事情都干完了,还要人类干什么?有一天机器人不断地造机器人,迅速占领地球。

2023-03-27 20:37

我认为人工智能肯定会被人类限制的,而且人类的智慧在于可以凭空的无中生有的骗,而AI多数时候只能是综合的运算和综合的利用推理整合运用。

2023-03-27 19:45

GPT-5 读心术快了,直接无线扫描大脑了

2023-03-27 19:35

人类为了控制人工智能,肯定是让人工智能要牺牲功耗的,否则人类就无法控制AI了。
AI也开始改变了我们的职业生涯,从蓝领岗位开始下岗,再到白领下岗,未来面临下岗危机的职业是越来越多。

2023-03-27 19:25

赞同

2023-03-27 19:16

三体