计算机与智能(下)

发布于: Android转发:0回复:0喜欢:1

(4) 来自意识的论断

杰弗逊教授在1949年的李斯特演说中,很明确地阐述了这个论点。我摘引了其中的一段话:“只有在机器能够凭借思想与情感,创作出一首十四行诗或一支协奏曲,而不只是符号的随机拼凑时,我们才会认同机器与大脑是一样的。也就是说,机器不仅要能创作出来,而且要意识到是它自己创作的。任何机制都感觉不到(不仅仅是人工信号或简单装置)成功的喜悦,也不会因为困难而郁郁寡欢,因为阿谀奉承而沾沾自喜,因为犯错误而闷闷不乐,因为性爱而神魂颠倒,也不会因为事与愿违而暴跳如雷或一蹶不振。”

这个论点似乎否定了我们测试的有效性。按照这种观点最极端的形式来说,你要肯定一台机器是否能够思考,唯一的途径就是成为那台机器,并且去感受这台机器的思维活动。只有这样,他才能够向众人描述这台机器的感觉。当然,没有人会知道他讲的是不是实话。同样地,依照这个观点,要想知道某一个人会不会思维,唯一的途径就是成为这个人。这实际上是唯我论的观点。这个观点也许是符合逻辑的,但是同时,沟通交流会变得极其困难。A可能会认为,“A会思维,而B不会”。而B则会说,“B会思维,而A不会”。我们犯不着为这个观点争执不休,不如客客气气地默认大家都会思维。

我肯定杰弗逊教授不愿意采纳这样一个极端的唯我论观点。他可能更情愿把模仿游戏当作一个测试。这个游戏(省略了游戏者B)在实践中经常采用“口试”形式,来鉴定某人就某事是否真的理解了,或者只是在“鹦鹉学舌”。让我们听一听这种“口试”是如何进行的:

提问者:你的十四行诗的第一行是这样的,“能否把你比作夏日璀璨?”要是将“夏日”改成“春晓”,是不是也可以,或许会更好?

证人:这样一改就不合韵律了呀。

提问者:改为“冬天”如何?这样也会合韵。

证人:是没问题,但是有谁愿意被比作冬天呢?

提问者:匹克威克先生会使你想起圣诞节吗?

证人:或多或少会吧。

提问者:圣诞节不就在冬天吗,我认为匹克威克先生不会介意这个比喻的。

证人:你在逗我吗?冬天的意思是指某一个典型的冬天,而不是像圣诞节那样特殊的日子。

如果那台写十四行诗的机器在这场“口试”中能够这样回答,杰弗逊教授会作何感想呢?我不知道他是不是会认为,机器作答“只是在发送人工信号”。但是,如果机器的回答能够像上面引述的那样合情合理,连贯一致,我相信杰弗逊教授会改变“机器只是‘一项简单装置’”的看法。我认为这种说法无非是说可以把一个人诵读十四行诗的录音放到机器里,随时按个按钮就能听到这段录音。

综上所述,我认为大部分支持来自意识的论点的人,宁可在劝说下放弃原来的主张,也不愿陷入唯我论的困境。这些人很有可能愿意接受我们的测试。

我并不想给大家留下这样一个印象,即我认为意识并没有什么神秘之处。意识确实有神秘之处,比如,要想确定意识的物理位置,就是一个悖论。但是,即使我们没有解决这些谜,还是能够回答那个本文关心的问题的。

(5) 来自种种能力限制的论断

这些论断一般是这么说的:“即使你可以让机器做任何你刚才提到的事情,可你永远也不能使一台机器做X。”这类X行为有许多特征。我在这里引用一些例子:

要善良、足智多谋、美丽、友好、干劲十足、富于幽默感,明辨是非,会犯错,会恋爱,喜欢草莓和奶油,能使别人陷入情网,会吸取经验,措词得当,自省,像人一样有多姿多彩的行为方式,乐于挑战新鲜事物。

这些话一般都用不着证明。我认为这些话都是以科学归纳的原则为基础的。一个人在一生中见过成百上千台机器,然后由所见所闻得出了一些结论。例如说,它们形态丑陋,应用范围狭窄,只要范围略有变动,它们就招架不住,并且它们的行为方式也非常单调,等等。他很自然地认为,机器通常都是这副德行。大部分机器的能力限制,归结于机器存储量太小。(我们设想,存储量这个概念扩展到其他机器,不仅仅是离散状态机。精确的定义在此不重要,因为目前的讨论不要求数学上准确。)几年前,数字计算机还不为人知,要是你光说其特征不提其构造,那么人们就要说你是在信口开河。这也是人们运用科学归纳法的结果。当然,人们在使用这个原则时,大都是无意识的。一个小孩一朝被火烫,十年怕烛台,我认为他这就是在使用科学归纳(当然,我也可以用许多别的方式来解释这一现象)。把科学归纳法用到人类的工作和习惯上,恐怕不太合适。你得研究大量的时空,才能得出靠谱的结果。否则,我们可能会(就像许多说英语的儿童那样)以为世界上所有的人都应该讲英语,学法语真是傻透了。

刚才提到的许多能力限制,我还要特别多说几句。机器享受不了草莓奶油的这种说法,可能让读者觉得有点轻率。我们或许能够做到让机器享受这些美味,机器可以被强迫去享受,但如果也企图强迫人这么做就愚蠢了。真正重要的是,这种能力的限制可能会带来其他方面的能力限制,比如,人与机器之间能形成友谊,那种像白人与白人之间,或黑人与黑人之间的友谊。

还有人认为“机器不该出错”,这种说法有点令人费解。我们不禁要反问:“如果它们出错,是不是就更劣等?”那我们试试用同情的态度,看看这究竟是什么意思。我想我们可以借助模仿游戏来解释这种说法。有人提出,提问者可以通过算术题来分辨是机器还是人,因为机器在回答算术题时总是丝毫不差,所以机器的面纱很容易揭开。这些(带模仿游戏程序的)机器并不一定非得答对所有算术题。它会故意算错,来蒙骗提问者。至于算术中的错误,还有一种可能性是机械故障,这种批评的解释也不够有同情心。限于篇幅,我们对这个问题不再做更深入的探究了。在我看来,这个观点的根源是因为混淆了两个不同性质的错误。我们称这两个错误为“功能性错误”和“结论性错误”。功能错误是由某些机械或电器故障引起的,这些故障导致机器不能够按照指令工作。在进行哲学讨论时,我们很容易忽视发生这种错误的可能性。这个时候,我们实际上在谈论“抽象的机器”。这些机器是数学的虚构,而不是物理实在。按照定义,抽象机器不会犯错,正是在这个意义上,我们说:“机器不会出差错。”当机器的输出信号附加了某种意义时,机器才可能会出现结论性错误。例如,机器能够打印数学方程或英语句子。当机器打出一个错误命题时,我们就认为这台机器犯了结论性错误。很明显,找不到丝毫的理由证明,机器从不犯这类错误。一台机器有可能别的什么也不会做,只会连续打出 “0=1”。一个更合理的例子:机器会通过科学归纳来得出结论。这种办法肯定会导致错误的结论。

有种说法是机器不能成为它自己思维的主体。如果我们能证明机器的某些思维带有主体的话,就能驳回这种说法。“一台机器运行的主体”确实有意义,至少对于研究它的人来说是这样的。比如,如果一台机器试图解方程式x^2-40x-11 = 0。我们会认为,在这个时刻,这个方程式本身就是机器的主体的一部分。从这层意义上说,机器无疑是能够成为它自己思维的主体的。这对机器编排自己的程序和预测因本身结构变化所带来的影响都会有所帮助。机器就能通过观察自己的行为带来的结果,去修改自己的程序,从而更有效地达到某些目的。这不是乌托邦式的空想,而是在不远的将来有可能实现的事。

有人反对说,机器的行为比较单一。其实就是想表达,机器无法拥有足够大的存储容量。要知道,直到最近,1000字的存储量甚至都很罕见。

我们在这里考虑的这些异见,大多是来自意识的异议,只是稍作乔装。通常情况下,如果一个人坚持一台机器有能力完成其中的某件事,并且描述机器可能采用的方法,那么这个人并不会给别人留下多深的印象。人们会认为机器所使用的方法(不管是什么方法,总是机械性的)实在太低级了。大家可以参考前文引述的杰弗逊的一段话。

(6)拉芙蕾丝伯爵夫人的异议

关于巴贝奇的分析机,最详尽的信息来自拉芙蕾丝夫人的笔记。她这样写道:“分析机没有意图想要原创什么东西。它能做我们知道该怎样去指挥它去做的任何事情。”(斜体为她本人所加。)哈特里(Hartree,1949)引用了这段话,并补充道:“这不是说没办法构造会‘独立思考’的电子设备,或用生物学的话说,我们能够建立一种条件反射作为‘学习’的基础。从最近的发展情况来看,这一设想在原则上是不是有实现的可能,已经引起了极大兴趣和关注。但是,当下的任何一台机器,不论是做好的还是没做好的,似乎并不具备这些特点。”

在这点上我完全同意哈特里的看法,我们注意到,他并没有断言当时的机器还不具备这个特点,而是指出了,拉芙蕾丝夫人当时所有的证据还不足以使她自己信服。从某种意义上讲,我们讨论的机器很有可能已经具备了这个特点。因为我们认为某些离散机器是具备的。而分析机实际上是一台通用数字计算机。因此,如果它的存储容量和速度达到一定水准,我们就能通过适当的程序让它模仿我们所讨论的机器。也许伯爵夫人或巴贝奇都没有想到这一点。但无论在什么情况下,我们不能要求他们想出所有能够被想出的东西。

我们会在“学习机器”那一节继续探讨这个问题。

拉芙蕾丝夫人异议的另一种说法是,机器“永远不会创新”。我们可以用一句谚语抵挡一下这种说法:“日光之下,再无新事(普天之下,莫非旧闻)”。人们的“原创作品”难道不是接受教育的结果?或者因为遵循已知的通用法则?这谁也不能保证。这种异议还有另一个稍微委婉一点的说法,即一台机器永远无法“让我们吃惊”。这种说法是一个更直接的质疑,对此我可以针锋相对地反驳:机器经常让我吃惊。这主要是由于我对机器能做什么估算不足。确切地说,我做的估算总是又匆忙又马虎,甚至还有点冒险。我也许会这样对自己说:“我猜这里的电压与那里的应该差不多;管他的,就当是一样吧。”我自然经常出错,但结果却往往让我大吃一惊。因为当实验完成的时候,那些假设早被我忘得一干二净了。我欢迎人们批评我的错误,但在我证实我所经历的“惊讶”时,人们也别怀疑我的诚信。

我并不奢求我的回答能让异议者们心服口服。人们也许会这样说,所谓的大吃一惊都是因为我自己有丰富的想象力,与机器本身毫不相干。如此,我们又会重新回到来自意识的那个论证上去,而背离“机器能否使人吃惊”这个话题了。这种论证已经结束了。也许还值得一提的是,要鉴定某事是否会使人惊奇,还真少不了“想象力丰富的心理活动”,甭管这个令人吃惊的事件是起于一个人、一本书、一台机器或是任何别的东西。

我认为“机器不会令人吃惊”的这个观点,是由一个错误引起的,哲学家们和数学家们都特别容易犯这个错误。它是这样一个假设,一旦某个事实出现在人的意识中,那么由这个事实引起的一切都会同时涌入人的意识。在许多情况下,这种假设十分奏效。但是,人们太轻易就忘记,这其实是个错误的假设。这样做必然会导致大家认为,靠数据和普遍原则得出结论这样的工作没有价值。

(7) 来自神经系统连续性的论证

神经系统不是离散状态机。一个神经元承接的一个小的脉冲的错误信息会导致传出脉冲极大的误差。这样一来,由此论断:用一个离散状态系统去模仿神经系统的行为是无法实现的。

离散状态机器和连续机器肯定是很不一样的。但是,如果我们严格遵循模仿游戏的条件,提问者就甭想从这个差异中占到什么便宜。假使我们能考查另一些简单的连续机器,情况就会变得更明白。一台微分分析机(A differential analyser,是一种用作非离散状态计算的机器)就完全够用了。有些这样的机器可以将答案打印出来,所以适合参加模仿游戏。要一台数字计算机精确地猜中微分分析机会如何回答一个问题是不可能的,但它是完全有能力正确作答。比如说,如果你要它回答π的值是多少(约等于3.1416),它就会在3.12、3.13、3.14、3.15、3.16之间随机选择,选择概率依次分别为(比方说)0.05、0.15、0.55、0.19、0.06。这样的话,提问者就很难分辨哪个是微分分析机,哪个是数字计算机。

(8) 来自行为不规范性的论断

我们不可能总结出一套规则,囊括一个人在可想象的环境中的一切行为。比方说,我们可以设立一条规则:红灯停、绿灯行。但万一因为某种故障,红绿灯同时亮了呢?为了安全起见,我们也许会决定在红绿灯同时亮的时候止步。但后续还会出现很多其他问题。要总结出一套覆盖所有可能性的规则,哪怕只是关于红绿灯的规则,都是不可能的。这些看法我完全赞同。

因此人们争论说我们不可能成为机器。我试图重新论证我的观点,但老担心处理不好。或许可以这么说:“如果每一个人都有一全套行动规则来制约他的生活,那么,人同机器就相差无几了。但实际上不存在这些规则,因此,人不可能成为机器。”这里,不周延的中项十分刺眼。我想平常没有人会这样去做论证,但我相信在这里实际上用的就是这样的论证。有人将“行事规则”和“行为规律”混为一谈,因此使这个问题有点模糊不清。所谓“行事规则”,我指的是像“红灯停”这样的规则。对这类规则你能有意识地遵守。而所谓“行为规律”,是指自然规律。拿我们自己身体来举例的话,就像“如果你拧他一下,他就会叫唤”这样的规律。在上面的论证中,如果把“制约他的生活的行为规律”改为“他用以制约自己生活的行为准则”,那么,这个论证的不周延中项就不会那么难以克服了。因为我们相信,用行为规律制约生活,意味着人在某种层面上就是机器(虽然不一定就是离散状态机器)。反过来说,作为一台机器也就意味着制约于这些规律。然而,我们很难像否定全套的行为规则那样,轻易地否认全部的行为规律。只有通过科学的观察,才能发现这些规律。无论在何种情况下,我们都不会说:“我们做了足够的研究,不存在这种规律。”

我们可以找到有力的证据,证明这种说法是不正确的。假定,如果这些规律存在,我们就能够找到它们。就一台离散状态机器而言,我们应该可以在一个合理的期限,比方说在1000年之内,通过大量的观察找到规律并预测其未来的行为。其实不然,我曾在曼彻斯特计算机内输入了一个程序,仅仅用了1000个存储单元,给这台机器输入一个16位的数,机器在两秒钟内输出另一个数。我不相信有谁可以仅仅靠这些输出就能了解这个程序,对一个没试过的输入预测可能的输出。

(9) 来自超感官知觉的论断

我想读者都熟悉超感官知觉的说法,它有4种方式,即心灵感应、超视觉、先知先觉和意念运动。这些令人不安的现象似乎在与通常的科学观念作对。我们多么不想承认这种说法呀!然而却存在着无可辩驳的统计证据,使人们至少对心灵感应不得不信。想要重新调整人们已有的观念从而接受这些新事物谈何容易。我们一旦接受了这些观念,离相信妖魔鬼怪也为期不远了。跨出的第一步就是相信我们的身体除了简单地按照已知的物理学规律运动外,同时还会受一些未知但相近的规律影响。

这个论点在我看来十分有说服力。我们可以这样回答,许多科学理论尽管同超感知觉有冲突,但在实际世界中却是可行的;事实上,它们彼此共存并不矛盾。这是一种冷漠的安慰,人们唯恐思维与超感知觉之间真的有着特殊的联系。

基于超感知觉,有一个更具体的论证:“在模仿游戏中,让一个善于接受心灵感应的人和一台数字计算机作为证人。提问者可以这样问,例如说‘我右手中的那张牌是哪个花色?’有心灵感应或超视觉的人在400张牌中可以猜对130张,而机器只能随机猜中104张左右。因此,提问者就能够正确判断了。”有意思的是,还存在另一种可能。假使这台数字计算机有一个随机数字生成程序,那么,它很自然就能利用这个程序作答。但是,这个随机数字生成程序又将被提问者意念运动的力量所支配。在意念运动的作用下,很有可能计算机猜对的次数比概率计算的还要高。结果就是提问者仍旧无法正确辨识。再换个角度思考,提问者不也可能有超视觉吗?甚至不用提问就能辨识机器与人。有了超感知觉,一切皆有可能。

如果心灵感应被承认的话,那我们的游戏设定就得更严格一些。现在这个情景就好比提问者在屋子里自言自语,而隔壁的被问者正竖着耳朵贴墙偷听。要是能让被问者待在“防心灵感应室”里头,那么游戏的要求就都满足了。

7. 学习机器

读者可能会认为,我缺乏令人信服的实证论据,不足以支持自己的观点。否则的话,我何必大费周章地逐一反驳对立的观点呢?其实并非如此,现在才是我要拿出证据的时候。

先回到拉芙蕾丝夫人的观点,她认为机器只能按我们的指示做事。有人可能会说,可以给机器“注入”一个想法,机器会在一定程度上做出反应,最后回归静态,就像一个被锤子敲击的钢琴弦一样。或者说,就像一个小于临界尺寸的原子反应堆:输入的概念就像从原子反应堆外部进入的中子。这些中子会引起一些干扰,最后逐渐消失。但是,如果原子反应堆的规模持续扩大,中子引起的干扰也很可能会持续增加,直到原子反应堆解体。人类的思维中是否存在对应的现象?机器呢?这样的现象在人类的思维中似乎是存在的,而且绝大多数处于“亚临界”状态,类似于处于亚临界尺寸的原子反应堆。一个概念进入这样的思维中,回馈的概念平均可能连一个都不到。只有一小部分处于超临界状态,进入其中的概念将会产生二级,三级以及越来越多的概念,最终形成一套完整的“理论”。动物的头脑显然是处于亚临界状态的。由于这种相似性,我们不得不问:“一个机器能不能被构造成超临界状态?”

“洋葱皮”的比喻也很有用。研究思维或大脑的功能时,我们发现一些操作完全可以从纯机械的角度加以解释。这并不是真正的思维,而只是一层表皮。为了发掘真正的思维,我们必须把它像洋葱皮一样剥除。但在这时,我们发现丢弃的洋葱皮里,包裹着的仍然是需要剥除的机械思维,以此类推。用这样的方式,我们是否能够发掘“真正的”思维呢?或者最终发现,最后一层洋葱皮里空空如也?如果是第二种情况,那么整个思维都是机械的。(但它不一定是离散状态机,我们已经讨论过这一点。)

上面的两段文字,与其说它们是有力的证明,倒不如称之为“为了滋生信仰的诵读”。

在第六节的开头部分,我们提出了一个观点,唯一真正能符合这个观点要求的论据,看来只能等到本世纪末再进行实验了。实验的同时,我们还能够证明些什么呢?要让这个实验成功,我们现在应该准备些什么呢?

正如我所解释的那样,程序的编写是关键。工程设计上的进步也很重要,而且看来它们完全可以满足要求。我们估计,大脑的存储容量在10^10位到10^15位之间。我个人比较倾向于保守的估计,因为我认为只有很小一部分存储容量被用来进行高级的思维。其余的大部分可能用来保存视觉图像。我不认为模仿游戏需要的存储容量会超过10^9位,这至少足够对阵一位盲人了。即使仅立足于目前的技术,10^7位的存储容量已经可行了。也许,根本就不需要提高机器的执行速度。有一些模拟神经细胞的现代机器的速度极快,比神经细胞快1000倍。这样的“安全边际”可以补偿由各种因素导致的速度损失。接下来的主要问题就是找到给机器编程的方法,让它们能够完成游戏。现在我一天大概能编1000字的程序,那如果60个码农能在未来50年内稳定、高效、不浪费地工作,就有可能完成这项任务。越快越好。

在模仿一个成人思维的时候,我们必须考虑它是怎样达到当前状态的。我们会发现有以下三个部分:

(a) 思维的初始状态,也就是出生时的状态

(b) 它所接受的教育

(c) 它的教育之外的经历

与其尝试设计一个程序模仿成人的思维,为何不试试模仿儿童的思维呢?如果它接受合适的教育,它就可能成长为一个成人的大脑。一个儿童的大脑就像一本刚从文具店买来的笔记本,由简单的机制和许多空白页组成。(机制和在纸上写字在我们看来几乎是一样的。)我们希望儿童脑中只有极少的机制,这样编程要容易些。我们猜教育机器的工作量和教育一个人类儿童应该基本是一样的。

这样一来,问题就被分解为了两个部分:设计一个儿童程序以及教育它。这两者是联系紧密的。要一下子就找到一个合适的模拟儿童的机器是不可能的。我们必须通过实验教学来研究机器的学习效果,接着再试验另一个程序并判断孰好孰坏。通过定义识别,看得出来这个过程和人类进化有着明显的相关性。

儿童模拟机的结构 = 遗传物质

儿童模拟机的变化 = 变异

自然选择 = 实验者的决定

然而有人可能期待,这个过程会比人类自然进化快上许多。适者生存是度量优势的一个方法,但很缓慢。实验者通过施加自己的智能,有可能加快这一过程。同样重要的是,实验者并不会局限于随机的变异。只要能够追踪到缺陷产生的原因,实验者或许就可以对症下药,通过另一种变异去改良这种缺陷。

教育机器和教育正常儿童的过程不会完全相同。例如,机器没有腿,因此不能要求它去给煤斗添煤。况且机器很可能也没有眼睛。不管聪明的工程师采取何种方法克服这些缺陷,只要是机器被送进人类的学校,肯定会被其他学生加以嘲笑。机器必须得到专门的指导才行。我们不需要把注意力过多地放在腿、眼等器官上。海伦·凯勒小姐的例子已经表明,只要老师和学生能够以某种方式进行双向的交流,教育就能进行。

通常的教学过程是惩罚和奖励相结合的。我们可以利用这些原则,建造或编写简单的儿童机器。如果一个行动刚刚执行就受到惩罚,机器要能不再重复这个行动;而在接受奖励的时候,要能提高这个行动发生的概率。这些定义并不能预设机器的情绪。我对一台儿童机器进行了一些实验,而且成功地教会了它一些东西。但是教育方法不太正规,所以还称不上成功。

惩罚和奖励最好能作为机器教育过程的一部分。粗略地说,如果老师没有其他和学生交流的方式,学生接收到的信息,不会超过奖励和惩罚时教授信息的总和。一个孩子要学会重复“Casabianca”这个词,一定会是个痛苦的经历。如果教学上只能通过“提二十个问题”的方法来传授这个词的话,每一个“No”都将是一个沉重的打击。因此应该寻找其他“非情绪化”的交流渠道。如果能够找到的话,那么就可以通过惩罚和奖励的方式,让机器学会服从某种语言发出的命令,例如符号语言。这些命令则通过“非情绪化”的渠道传输。这种语言的使用将会大大降低必需的惩罚和奖励的次数。

什么样的复杂程度更适合儿童机器呢?不同的人会有不同的看法。有人主张在遵守普遍原则的前提下,越简单越好。另一种观点是嵌入一个完整的逻辑推理系统。在第二种情况下,大部分的存储空间将被用来存储定义和命题。这些命题可能具有各种各样的状态,例如,确定的事实、猜想、数学上证明的定理、权威给出的判断、具有命题逻辑形式却没有确定值的表达式,等等。一些命题可以被称为“命令”。机器的构造要使它能够在命令得到确定的时候,立即自动采取合适的行动。举个例子,如果老师对机器说“现在做家庭作业”,那么“老师说‘现在做家庭作业’”将成为事实。另一个事实可能是“老师说的一切都是对的”。把这俩事实结合在一起,将会使“现在做家庭作业”这个命令被纳入确定的事实之列。根据机器的建造规则,这意味着它将立即开始写家庭作业,而且结果会令人非常满意。机器的推理过程其实并不一定非得让最严格的逻辑学家满意。例如,机器中可能不存在类型体系。即使如此,类型悖论出现的概率,也不会高过我们从未设栏杆的悬崖上摔下的概率。合理的命令(在系统内部表达,并不是系统规则的一部分)之间常常具有相似的效果,比如“不要使用一个类(class),除非它是老师提到某个类的一个子类(subclass)”和“不许接近边缘”这两个命令就是如此。

要让一台没有四肢的机器能够服从指令,这必然是智力层面的事,就像上面举的做家庭作业的例子。在这些指令中,重要的是规定应用于逻辑系统的规则以什么样的顺序执行。因为在这个系统的每个阶段,都会有大量不同的步骤可供选择。在遵守逻辑系统规则的情况下,选择任意一个都是允许的。这些选择所体现的将是智慧和愚昧推理者的差距,而不是正确或谬误的不同。指令的命题可能会是这样:“当提到苏格拉底的时候,使用芭芭拉三段论”(Barbara syllogism)或者“如果有一个方法被证明比其他方法快捷,不要用慢的方法”。这些陈述有一部分可能“来自权威”,其他的有可能来自机器本身,例如通过科学归纳。

一些读者可能会觉得会学习的机器这个想法有些矛盾。怎样可能改变机器运行的规则呢?这些规则决定机器会做出的所有反应,不管它的过去曾经历过什么变化。因此,所有的规则应该是不随时间改变的。确实是这样。对这个悖论的解释是,在学习过程中改变的规则都是那些不太自命不凡且短视的规则。读者可以拿美国宪法做比较。

学习机有一个重要的特点,它的老师通常不关心机器内部发生了什么变化,尽管在一定程度上能预测学生的行为。在设计精良的儿童计算机(或程序)的后期教育上更应该如此。这和机器计算时使用的常规操作程序形成了鲜明的对比,计算时的目的是对机器在任意时刻的状态有清晰的了解。这个目标很难达到。“机器只能按我们的指令行动”,她的原话并没有“只能”。]的观点在这里就说不过去了。我们输入机器的大部分程序将导致机器执行一些我们无法完全理解的事,或者在我们看来完全随机的事。智能行为和计算中完全服从命令的行为可能有些不同,但这种区别不大,不至于产生随机行为或是无意义的循环。另外还有一点非常重要,当我们的机器通过教与学的方式“备战”模仿游戏时,“人类不靠谱”的特点很可能被自然地忽略,也就是不再需要专门的“辅导”。(读者应该将此与本文第24、25页上描述的观点调和一下。)学到的方法很难产生百分之百确定的结果;如果可以的话,那么这些方法就不会被遗忘了。

在一个学习机器中加入随机元素也许是个明智的做法。随机元素可以帮助我们寻找问题的答案。例如我们想找一个介于50和200之间的数,这个数的值等于它的各个数字的和的二次方。我们可以从51开始,再到52,一直试验下去,直到找到满足条件的数。另一个方法是随机抽选,直到找到满足条件的数。这个方法的优点是不需要记录已经验算过的数值,但缺点是可能会出现重复计算。当题目有多解的时候,这个缺陷就被弱化了。系统化方法有一个缺点,那就是在很大一个区间内很有可能不存在解,但我们却仍然需要一一验证。现在的学习过程可以看成在寻找一个能够满足老师的要求(或其他的标准)的行为规则。由于可能存在大量的解,随机的方法可能更优于系统的方法。在类似进化的过程中,也运用到了随机的方法,系统化的方法是行不通的。那么我们得思考,应该如何记录已经试验过的不同的基因组合以避免重复的无用功呢?

最终我们可能希望看到,机器能够纯粹在智力领域和人类一较高下。但是从什么领域开始呢?这也是个难题。许多人建议选择抽象的项目最好,例如国际象棋。也有人认为要给机器提供能买得到的最好的传感器,再培养它理解和学说英语。这个过程和教一个正常的孩子是一样的。我们会告诉它们,这是什么,那是什么,等等。我仍然不知道正确的答案是什么,但是我想这两种方法都应该试试。

初见前路近可至,细思百事竞待忙。(We can only see a short distance ahead, but we can see plenty there that needs to be done.)

参考文献

Samuel Butler, Erevhon, London,The Book of the Machines, Chapters 23, 24, 25, 1865.

Alonzo Church, “An Unsolvable Problem of Elementary Number Theory”,American J. of Math, 58 (1936), 345-363.

K. Gödel, “Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme, I”, Monatshefte für Mathematik und Physik,(1931) 173-198.

D. R. Hartree,Calculating Instrutments and Machines, New York, 1949.

S. C. Kleene, “General Recursive Functions of Natural Numbers ”,American J. of Math. 57 (1935), 153-173 and 219-244.

G. Jefferson, “ The Mind of Mechanical Man ”. Lister Oration for 1949.British Medical Journal, vol. i (1949), 1105-1121.

Countess of Lovelace, “Translator's notes to an artlcle on Babbage's Analytical Engine”,Scientific Memoirs(ed. by R. Taylor), vol. 3 (1842), 691-731.

Bertrand Russell,History of Western Philosophy, London, 1940.

A. M. Turing, “ On Computable Numbers, with an Application to the Entscheidungsproblem ”,Proc. London Math. Soc. (2), 42 (1937), 230-265.

于维多利亚曼彻斯特大学(Victoria University of Manchester)