人工智能AI具体什么时候能取代人类?

发布于: iPhone转发:0回复:0喜欢:0

首先给结论:人工智能要达到通用人工智能的水平,以目前静态的基础算力计算,大约还差一百倍。即当前算力需要增长约百倍,理论上能大幅抵进AGI的门槛。


当红头牌的GPT4到底有多聪明,它的智能具体处于什么水平呢?我可以负责任的告诉你,当前的GPT4大约等于一只成年期猴子的智能水平,比最聪明的猫要聪明几十倍。这些结论的具体依据是什么,以及人工智能到底还需要几年才真正达到人类智能,接下来我会详细说明。
在讨论GPT4的智能程度之前,我们先聊聊究竟什么是智能。依据人类的经验,智能大约代表着一些具体能力比如:记忆,理解和分析,逻辑推理,创造和计划,自我意识,情感,统筹和解决等。因此可将其综合概括为“智能,是完成复杂目标的能力”。
大爆炸发生的138亿年后,残酷荒绝的宇宙中遍布毫无生机的各种物质。但是当其中一团物质居然莫名获得了智能,这极度不寻常。遥想当初从夸克组合而来的质子和中子在电磁力作用下束缚住电子,才成为我们宇宙的最初原子。这些最初原子在漫长变化中被聚变成更重的碳,氧和硅原子。当这些原子奇遇某个巧合条件,组合出一种能自我维系和复制的形态,这种形态的自我繁殖就自然诞生了。这种不断自我复制的原子形态逐渐增加自身规模,终于艰难获得了承载最少量信息所需的基础容量。形成智能的重要条件就此开始姗姗具备。
既然确认了智能就是“能完成复杂目标的能力”这一定性,那什么才是“复杂目标”呢?首先,不同智能水平对应的复杂肯定不一样。简单代数对于人类儿童来说很复杂,但对成年人类却很简易。所以“复杂目标”是针对自身潜力的难易程度指征。那些属于自身应对潜力的高成本区间或者困难象限的目标,通常就可以认为是“复杂目标”。现在我们来看地球最早的智能体:细菌。对于细菌来说,它的复杂目标就是持续寻居更适合它生存和复制的环境。很多细菌都有感应传感器,用于测量周围液体中糖的浓度。同时细菌还拥有动力结构“鞭毛”用于游动。将感应传感器和鞭毛联系起来就能执行一个简单的算法:如果发现身边液体的糖浓度降低,鞭毛就改变方向。这样鞭毛就会一直改变方向直到糖浓度达到适宜比例值。这里我们可以看出细菌有两个关键硬件模块:感知模块和动力模块。这两个模块在各自单独工作时无法完成复杂目标。但将两个模块组合为一个硬件整体:细菌,此时神奇的硬件组合算法便自然而然排列在了硬件的能力范围内。就此可以得出一个结论:复杂是智能的奖励器。奖品是能强化”预测和利用环境规律“的能力。
自身结构越复杂的智能体,会拥有越强大的环境预测能力和利用能力,进而又进化为更复杂聪明的智能体。这个更聪明的智能体又会为同位竞争者创造出一个更加复杂的环境,这个更加复杂的环境则迫使其它智能体适应性地进化得更加复杂。这种竞合一直持续下来,最终创建了我们今天所熟知的这个浩繁且极端复杂的世界。因此显而易见的,我们能直观感受到”智能本身就具有自驱进化性,祂的进化方向明确趋向更复杂,更智能和更浩繁。


在了解智能的来龙去脉后,我们来说说当下惊悚炙热的大模型人工智能(LLM AI)以及杰出代表GPT4。显然,从chatGPT刚出现不久便迎来GPT4急骤的迅猛升级闯入,GPT4的大幅进化如破空出世的神迹般撼震众生,一时各界述说纷纭。根据openAI的披露,chatGPT的训练参数约为1750亿。GPT4的训练参数未披露,但据知情人士暗示以及外界估算,大约为一万亿参数。那么GPT4这个一万亿参数具体处于智能的什么水平呢。人脑的参数大约为一百万亿,是GPT4智能水平的一百多倍。现阶段的GPT4智能程度约等于成年期的猴子。猴子大脑的参数约为一千亿到一万亿之间。
一只成年期的猴子在照镜子时会进入惊戒状态,因为它不认识镜中的猴子就是自己,它会认为那是另一只猴子。此时的猴子是完全没有“自我意识“的,猴子无法意识到自己是世界中一个真实存在的客体。因此目前的GPT4也完全没有自我意识。人类曾对此做过大量实验,最终结论证明即使把一个镜子从猴子小的时候就放在它居住的房子里,直到猴子成年至老,它也永远不会认识到镜子里面是它自己。这说明一万亿参数无法确保开启智能体的“自我意识”。而即便一只最聪明的猴子拥有了一万亿参数,人类智能的参数量级仍然是它的一百倍以上。
那么猴子可以在人类的训练下,领悟到镜子中的自己就是自己吗,答案是可以。人类据此建立了一个学习模型。把一只猴子的头固定在镜子前面,让猴子坐在镜前,在镜子前面训练它。想让猴子知道镜子里面那个面孔是它自己。要怎么训练它呢?人类在猴子身后竖一块白板,然后用激光在猴子背后的白板上打一个红点,猴子面对镜子坐着是无法看到这个点,只能通过镜子反射才能看到,如果猴子的手能在镜子上摸到那个红点的话,它就有东西吃,有奖赏。刚开始时猴子不知道镜子里面是它自己的手,所以它是摸不到红点的,但到了训练好几个礼拜以后,它开始能做到红点到什么地方,它手就摸到什么地方。那就表示它已经知道镜子里面就是它的手,它建立了肢体感觉跟镜中影像的关系,能够发现镜子里面就是它自己。
到此,研究人员进一步,通过脸部标记,就是在猴脸上偷偷地涂一些颜色,训练过的猴子看到镜子后,就会去摸自己的脸,而不是去摸镜中的猴子,这时猴子已经知道镜中是它自己。通过这种反应,这时就可以认为它已经认识自己了。它不但有摸这个动作,有时还会出现对着镜子拔自己脸上的毛,通过镜子观察以前看不到的身体部位。而完全没有训练过的猴子,它只会坐那边看,它也不知道干什么,不知道另外一只猴子在对着镜子干什么,它不会模仿,只有训练之后才会有这个能力。所以实验告诉我们,猴子可以学习在镜中认识自己。到达这一步后,科研人员通过脑影像仪去查看训练过的猴子看到自己的影像,跟没有训练的猴子看到自己的影像时,大脑中有什么不同。研究人员发现有很大的不同,认识自己后的猴子大脑中出现了新建成了网络,它可以在进行自我感知和自我意识类的活动时,反映在大脑活动里面。根据猴子开启”自我意识“的萌芽,并在脑类创建相关新神经网络的案例实证。能初步判断成年猴子的神经参数量级可以初步支撑起对”自我意识“类认知活动的学习要求。


我们知晓了GPT4参数来到万亿级别,效果也非常惊艳。意味着在文本类事务中,大量重复劳动的熟练工类型工作已可以逐渐用GPT4来胜任。从GPT3到GPT4的参数提升是6倍,如据此推算,大约在GPT7的时候训练参数将超过人类大脑。明了这一推算根据后,我们就可以大概明白三六零创始人周鸿祎的发言逻辑。周鸿祎认为GPT6的时候会开始出现意识,最迟到GPT8时一定会出现意识。我个人认为这个判断确实存在一定的逻辑可行性的概率。也因此老周的发言起码不是放空枪,多少有点凭据。将来GPT从4到7的这个过程,所需要的增量算力可以用骇人听闻来形容。仅名义算力的需求就需要增加一百倍,时间则是约2年(以GPT3-GPT4的速度,到GPT7大约还需要两年)。
这是否说明真到了GPT7时代,就将进入人工智能开启”自我意识“的智能水平时代呢?答案是不一定。训练参数只是智能的一个指标之一,还有一个重要指标是大脑皮层神经元。如果将训练参数指代大脑神经元,专司训练数据的吞吐和存算。那么大脑皮层神经元则是算法和中央处理器,负责智能能力的复杂运用以及对智能程度进行复杂探索和进化。openAI目前对GPT的升级方向主要为增加参数,提升并行运算规模。处于大力出奇迹一力破十技路线。那为什么openAI要选择这条大力出奇迹的路线呢?要知道GPT4虽然有万亿神经参数,但每个参数只是一个简单函数。而人脑的神经元是一个细胞,其信息神经参数的能力远超一个简单函数。且人脑神经网络中的连接非常复杂,可以自由地建立、拆除和调整连接,而大模型的神经网络则是事先设定的,由向量规则驱动。比人脑算力的全任务性和应变潜力极限完全不在一个维度。但openAI依然选择了大模型这条神经参数数量的堆积路线,这其中玄机是什么。
这就要聊到神经参数和大脑皮层神经元之间谁的智能权值更重要。
以猴子大脑为例,猴脑的神经参数在万亿级,大脑皮层神经元数量约50亿。对应的人类大脑神经参数为一百万亿,大脑皮层神经元约160亿,人脑参数和大脑皮层神经元数量分别是猴脑的一百倍和三倍,导致人类和猴类智能水平产生云泥之别。话题至此我将引入大象作为参照,大象的大脑皮层神经元高达约95亿,约合于人类的59%,约合猴类的190%。但事实上我们并不会觉得大象比猴子聪明两倍,甚至都不会觉得大象比猴子更聪明。所以,结论一目了然,构成智能的生物大脑中,神经参数和皮层神经元两者缺一不可互为关键。但相对于皮层神经元数量的增加而言,神经参数量的大幅增加才是那个导致智能程度差别的更显著因子。
由此我甚至可以猜测openAI首席科学家llya sutskever的导师这么多年来,一直顽固的独自坚持大模型路线的决策依据:他正是看到了这种动物界的智能差别背后的数据线索。
因此,本文开头的那个问题:人工智能具体什么时候将追上人类水平。如果排除人类社会系统的干扰和阻滞,答案大约是3-5年:即当人工智能神经参数大幅度超越人脑突触总量(达到约3-4百万亿参数),并拥有能充分覆盖人脑所具有的全任务灵活性所需的充足冗余算力后。在此基础上调试完善出一套更先进的算法系统(提升大脑皮层神经元)。真正具有意识的通用人工智能将或许可能会展现最初的曙光。但到时候的这个通用人工智能,依然很可能只是电子的,二维的。想要将通用人工智能连接到物理世界并改造物理世界。还需要纷繁多样的各垂类行业沉淀出各自的行业大模型(比如破解了全部氨基酸序列1.8亿蛋白质结构的alpha fold),并桥接到通用人工智能大模型。这依然不是个一蹴而就的过程。

即使有一天AI完全到达人类的智能程度,AI和人类之间也不会是简单的取代关系。人类发明的飞机并不会取代天空的飞鸟,而是并行于世界。目前来看,人类和AI彼此间不存在必然的取代引力,没有零和博弈的天然原生陷阱。现在过于担心AI是没有必要的。反而应该担心AI的智能进展过于缓慢