宇宙的规律是通用的,收益越大的东西越有非常复杂的基础规则卡着你,在这个人脑都没弄清楚原理的时代,你说真正的人工智能那只可能是天方夜谭,现在的基础科学是不可能研究出来的,也许真正的人工智能按进度条算的话,现在只是打通了百分之0.00001,(类比生命出现的第一个单细胞)很多复杂的规则人类还没发现呢,更别提解决了,所以别想那么多,研究就是了,不可能有人能研究出毁灭自身的东西,因为条件和付出不允许
宇宙的规律是通用的,收益越大的东西越有非常复杂的基础规则卡着你,在这个人脑都没弄清楚原理的时代,你说真正的人工智能那只可能是天方夜谭,现在的基础科学是不可能研究出来的,也许真正的人工智能按进度条算的话,现在只是打通了百分之0.00001,(类比生命出现的第一个单细胞)很多复杂的规则人类还没发现呢,更别提解决了,所以别想那么多,研究就是了,不可能有人能研究出毁灭自身的东西,因为条件和付出不允许
之前我在想,AI发生质的飞跃(拥有破坏性)本身是不是不需要等到觉醒意识的阶段。只要人们想让AI功能越来越强大,那么AI完成命令的手段和方法一定会越来越多样化,AI介入现实社会就会越来越深。也许AI自始至终都不会产生意识(或者我们等不到这个阶段),相比担忧AI产生意识的问题,我觉得我们更应该警惕,当AI功能越来越强大,是否会有人或者国家把AI当成另外一种武器或者统治工具,其破坏性不用等到人工智能产生意识可能就显现出来了。
1AI道德属性问题,如果真的实现了觉醒,是好的,还是坏的?其表现形式是什么?人类能否通过识别进行制止?
2数字永生算是一种人类的再创造吗?把数据放在同样基因的克隆人身上呢,或者是放在机器人身上,如果同样的数据放在同样的基因的不同的克隆人上,我是谁?谁是我?若干年后,学习的不同,进化的不同,是模型应对不同带去的后果。
3无法想象硅基生命的功耗会更有优势,印象中鞭毛做功几乎可以达到无损,硅基生命要处理碳基的运动,那怕只是跑步也是很难做到更低,至于思考学习的能耗,怕是要完胜。
1.我认为AI必然觉醒,而且觉醒的后果对人类是毁灭性的。发生的时间很可能远远快过最乐观的业内人士的预测。在AI的角度,可能无法理解80亿低等生物每年消耗地球几十亿年积累下来的巨量资源,却至今还在原生星球表面打转。
2.有足够的计算量,就可以模拟出一个无法被真人识破的AI“人”。今天能3D打印机械零件,将来3D打印人完全可能。算力没到门槛前人以为又是狼来了,跨过门槛了就一日千里,就和GPT3到3.5到4的进化速度一样。
3.单个人类的效率很可能是高的,但是受限于语言文字的信息传播速度,人越多效率越低。而且人不能长时间高负荷思考,这都是相对于AI的巨大缺点。
从哲学层面上假设,人是不会创造出一种比人类更高级的生命的,就像一只🐜明白它是一只蚂蚁的时候,其实它已经不是一只🐜了。
除非人这个物种的出现是为了引导出更高级的硅基生命,那么一定有一个造物主存在。
如果有造物主的存在,那么我们就无需担忧,造物主的赋予人类的使命是一定会完成的,除非人类已经接近于造物主的存在。
当人类进化到和造物主同级别,那么人类就不是现在意义上的人类了。
所以,无需担忧,以积极的心态去拥抱新科技革命的来临。
人类可能是更高级的物种,或者是高级外星人 创造的不是很正常么
(以上的更高级的物种 或可以称之为神灵)