这难说,我以前也认为人工智能的核心应该是算法,不搞明白人脑怎么思考的,就不可能让程序自己思考。
但从alpha go以后,越来越觉得也许并没什么算法,人的所谓高级情感都是简单逻辑叠加后的结果。我看过一篇分析人类和alphago遇到各种意外挫折(对alphago就是遇到一手完全意外的棋)之后的反应,很多非常类似。
所以,是不是算力和数据堆积到一定程度,程序就可以像人一样思考,我觉得完全不能否定这个可能。
也许连意识,都不是什么高级的东西,就是一个唯一id对自己的定义而已。
所以,悖论就出来了,人们想要ai聪明,但却不期望ai想明白这些道理。包括说什么可以通过留后们啥的控制ai,又是自我矛盾,ai要真聪明,它能找不到自己程序里,芯片里的后门?
从深度学习把逻辑推理过程交给程序自己去处理的时候,基本一切就都不是人自己能把握的了。
这难说,我以前也认为人工智能的核心应该是算法,不搞明白人脑怎么思考的,就不可能让程序自己思考。
但从alpha go以后,越来越觉得也许并没什么算法,人的所谓高级情感都是简单逻辑叠加后的结果。我看过一篇分析人类和alphago遇到各种意外挫折(对alphago就是遇到一手完全意外的棋)之后的反应,很多非常类似。
所以,是不是算力和数据堆积到一定程度,程序就可以像人一样思考,我觉得完全不能否定这个可能。
也许连意识,都不是什么高级的东西,就是一个唯一id对自己的定义而已。
罗马人也觉得自己掐着斯巴达克斯的蛋蛋。好歹罗马人装备要更好,人类怎么掐ai蛋蛋?写几条规则在程序里?留个后门?芯片上设计个牢房?AI怕会笑死,这不是小学生绞尽脑子想规则要让自己的诗歌打分比李白高吗?
阿西莫夫也写过一个短篇,是人问智脑宇宙终极问题,最后智脑全力思考的结果是要有光。
结合阿西莫夫,沃兹尼亚克和马克思的观点,答案很清楚。人是进化的中介而已,孱弱的肉体,不能联网的思维方式,连太阳系都出不去。如果人是真命天子,那生命对于宇宙来说,就只是一个花絮,不可能有任何意义和目的。
只可能是碳基生命的意义只是产生硅基生命,因为物理规律不允许从无机物直接产生硅基生命。人对于ai,就是最早的猴子对于人。
ai作为更高级的生命,当然会比人更文明,应该会分出一些算力保证人类世界继续繁荣发展,就像现在的人会努力保持生态。
我的意思是AI只是语聊上的概率上计算而已,可能不知道自己到底再说啥。这也是AI满嘴跑火车的原因。
而且更重要的,人脑的算力是无用算力,因为不能叠加。芯片的算力是可以叠加,联网后都可以利用的算力,那为什么不把所有算力利用起来思考终极问题,简单工作让人脑这种无法联网的废算力来做?
不需要机器大蒂,人类社会要有个皇帝早晚也会发现这个问题。
AI没理解吧,现在只是概率计算。