AI和动物,也有意识吗?

发布于: 雪球转发:0回复:0喜欢:3

人工智能领域的高速发展将非人类意识的问题再一次推向台前,在这个节点上,重新思考包括非人类动物和非生命系统的意识问题不仅有助于意识科学的发展,也为实际构建意识系统和应对相关伦理问题提供了见解。

近日,在 Current Biology 上,十位意识领域的研究专家受到了 Joseph LeDoux 和 Jonathan Birch 的邀请,从意识的三层级以及感知这一问题入手,对动物意识和 AI 意识的问题展开了讨论,在此,我们对这些看法进行了编译,以便读者对这一问题有更全面和开放的理解。

本文来自微信公众号:Mindverse Research(ID:gh_be9d7092abf7),编译:朱思嘉,原文标题:《人类之外的意识:来自十位专家的看法》,题图来自:视觉中国

原文链接:网页链接

人工智能(AI)正以飞快的速度发展,一些人对 AI 意识持有乐观的态度,认为诸如 ChatGPT 之类的大语言模型(LLM)很快就会拥有意识。但关于“意识”的含义目前仍然存在着很大的争议。如果我们将意识与智能混为一谈,那么可以说人工智能已经进入了可以谈论意识的范围,但我们需要将这些想法分开。

类似的问题还出现在对动物意识的研究中,当动物表现出复杂的行为(例如蜜蜂的摇摆舞)或表现出类似于人类的行为时,有人就认为动物表现出了意识(如果一条鱼被吓到逃跑,它一定是因为像人那样感到了恐惧)。这样的推论很容易使我们误入歧途。

人类可以用语言报告出他们的经历,这促进了对人类意识的研究。而动物只能做出非言语反应,这总是让人怀疑它们的行为究竟是有意识还是无意识的。相比之下,尽管大语言模型会输出大量的语言数据。但这些模型是因为经过了海量文字的训练,所以才可以像人类一样对提示作出反应,我们并不能知道它们的反应究竟是因为意识还仅仅是一种熟练的模仿。

那么我们应该如何定义“意识”呢?即使在人类意识研究中,意识也常常被视为一种单一的状态。一个重要的例外是图尔文(Endel Tulving)对意识的三分类法:自知意识(autonoetic)、思知意识(noetic)和失知意识(anoetic)。

“自知意识”是反思性的自我意识,可以将当前经历定位为延展到过去和未来的自己生活叙述的一部分;“思知意识”包括语义和概念意识,但没有自我意识,它可以将概念应用于当前的感知并从中生成知识。

最难以捉摸的或许是“失知意识”,它是一种既不涉及自我意识也不涉及语义知识的体验。例如,它包括正确/错误、舒适/不适、熟悉、不安、存在/缺席、疲倦、自信、不确定和所有权等各种感觉:感觉眼角的物体肯定是一只鸟;回家时感觉一切还是(或不是)离开时的样子;感觉自己在生病……这些“失知”的感觉在人类中处于意识的边缘,很少成为关注的焦点。而在其他一些动物中,这可能是意识的全部。

这三个意识的层级都可能以复杂的方式与记忆、注意和元认知纠缠在一起:大脑表征(或重新表征)其自身较低水平的认知过程。人们很难说清意识的每一层级到底需要什么。有人认为自知意识可能是人类独有的,如果不是的话,很可能只存在于少数其他动物中(例如类人猿等);思知意识似乎可能存在于更广泛的动物中(所有灵长类动物和一些哺乳动物);而失知意识可能在动物中有着最广的分布(至少包括所有的哺乳动物),这很有可能因为失知意识的要求确实非常低。

“感知”(sentience)一词出现在对动物和人工智能的讨论中。它与图尔文意识三分类的关系在哪里?对一些人来说,“感知”非常基础,只不过是“使用适应性的内部过程对刺激做出反应”,这个定义过于简单,淡化了感知的概念;其他人认为,感知可能是失知意识的同义词。

对于另一些人来说,感知捕捉到的不仅仅是对刺激的反应,而是比失知意识更“原始”的东西:一种基本的体验,甚至不涉及对当前状态的评估,而只涉及一种活着或存在的感觉。顺着这种思路,玛丽·范德克霍夫(Marie Vanderkerckhove)将知觉描述为处于“意识连续体”(continuum of consciousness)中的单纯清醒和失知意识之间。

现在的 AI 似乎已经能够应用概念,并能从感官输入中生成知识。它似乎很快也将具备构建自我叙述的能力。令人困惑的一点是,AI 可以在不具备基础感觉层次时实现这些目标,而人类这些更高的层次是建立在基础层次之上的。AI 像是没有基础的空中楼阁。换个比喻来说,即使 AI 清楚地“讲述”了它的生活故事,一切都可能发生在黑暗中。

与此同时,许多动物可能正处于相反的情况。它们可能拥有丰富的基础情感世界,但却没有能力概念化正在发生的事情或将其放入自我叙述中。这两种可能性都将我们的想象力推向极限。

这些问题日益紧迫,但问题的答案依旧难以捉摸,对此,科学家们最近呼吁 AI 公司开始认真投资意识研究。

在这个背景下,现在正是向研究(人类和动物)意识以及高级认知的专家提出该领域的一些重要问题的好时机。我们在这里邀请他们根据下列的部分或全部问题叙述自己对人类意识之外的意识的看法:

你认为人工智能很快就会有意识吗?

你认为还有哪些动物是有意识的?

AI 意识科学能从动物意识科学中学到什么,反过来呢?

以下是专家回应。

Kristin Andrews

加拿大约克大学哲学系,动物心智研究主席

大语言模型的成功让人们直面了 AI 是否很快就会具有意识的问题,这在很大程度上来源于一种当代人类中心主义的偏见(anthropocentric biases)。人类使用语言并且具有意识,这让人们期望可以快速地类比论证 AI 意识的存在。但我们需要考虑其中可能存在的矛盾。人类、猴子和老鼠经常被作为意识研究的对象,它们拥有 AI 所缺乏的许多特性:社会性、发展性、丰富的感觉中枢、处于活着的状态。

人工智能没有可以学习的本地社交模型,它没有一个可以与同龄人共同成长的世界。它们的社会伙伴是它们的人类统治者,而不是具有不同学习历史和遗传多样性的物种社区。我们可以说,AI 不是文化存在,它们不参与文化内部和文化之间的协作和竞争。

AI 也无法充分感知其物理环境。尽管它们的 token 交易量已经超过数万亿,但它们进行的交易类型却很少,通过键盘或摄像头获取信息,然后将其转换为电子信号。类似人类那样跨感觉模态的信息整合几乎不存在。

人工智能并没有生命。它们不会积极地保护自己的持存,不会自我组织以保护边界免于融入环境,不会吸收环境元素并通过代谢过程将其转化为自身的存在。AI 缺乏通过社会和物质环境中的行为来保护自己的目标。由于它们无法自我复制,因此也不能被视为进化系统。

不过,这也许是我太过谨慎了,现在和未来的 AI 可能会具备这些东西,并且拥有的可能比我们想象的更多。但即使这样,依旧存在着不少的担忧:将 AI 属性设计成与人类相似会引发博弈问题(gaming problem),并有可能创造出一种笨拙的意识模仿者,其功能组织与人类完全不同。

更糟糕的是,即使计算机科学家可以构建出具有其中一些特性的人工智能,当代科学还远远无法发展出强大的人工生命(生命和意识可能本质上是交织在一起的)。生命赋予我们语言所没有的东西,那就是目的(purpose)和功能(function)。语言可以使这一目的更容易被看到,允许智能体描述和传达他们的目标,但语言也可以在代理感并不存在的情况下造成拥有的幻觉。

功能和生物学之间存在着一种不稳定的关系,许多人强烈怀疑将细胞/细菌描述成“有目的的”是否合适,同时又用一种花言巧语来谈论“目的”而不直接使用这个词语。正如丹尼斯·沃尔什(Denis Walsh)所说:“生物体从根本上来说是有目的的实体,而生物学家对目的本身怀有敌意。”

生命和有意识心智的连续性表明意识可能有一个功能:维持生命。当我们关注最基本的主观体验时(口渴感、缺氧感、社交欲/性欲等),意识可能被认为具有重要的目的。

虽然这并没有告诉我们哪些动物有意识,或者植物是否有意识,但它应该引导我们去研究最简单的动物生命形式。我认为,意识认知科学应该采用所有动物都有意识的工作假设,并研究更简单的动物模型,从而发展出更稳妥的理论。考虑到感觉、社交和学习能力,即使是不起眼的秀丽隐杆线虫也可以作为研究意识的有希望模型。

科学的进步不仅在于观察人类,还在于观察远离我们人类的生命。亚里士多德对海绵着迷,孟德尔则对豌豆着迷……通过研究简单动物的原始经验,我们可以了解在考虑 AI 是否有意识之前,应该考虑它具备哪些属性。

Nicola S. Clayton

剑桥大学心理学系

LeDoux 和 Birch 在引言中根据图尔文早期关于心理时间旅行(mental time travel)的理论工作(记住过去和想象未来的能力)以及人类在这一属性上独特的程度,描述了意识的三个层次。其中,自知意识是指意识到自己是记忆和对未来的想法的所有者和创造者。思知意识是语义性而非情景性的,因此依赖于认知系统而不是经验性记忆系统。

最后,LeDoux 和 Birch 提到了更难以捉摸的失知意识,有些人可能将其称为基本意识:对自己世界的是非感觉。失知意识不涉及反思性的自我意识,无论是基于经验的还是基于知识的,而只是关于预测错误的联想学习。

而这三者中明显缺失的一个方面是图尔文附加的编年史意识(chronesthetic consciousness)概念,它与心理时间旅行特别相关,即意识到图尔文提出的“一个人存在于主观时间海洋中的永远存在的意识”。这个概念是人类意识体验的核心,也是我们如何主观地在空间和时间上前后投射自己的核心。

我同意他们的观点,这不是 AI 和我们现在共有的东西,因为它需要一定水平的经验和情商,而(目前)只有生物系统才具备这些。人造机器和算法表面上可能会以这种方式做出反应,但这只是因为它们是由人类发明和设计的。另一方面,通过自然选择进化的生物系统可能确实具有其中一些能力。

对非人类动物的心理时间旅行的研究表明,一些非人类物种能够回忆过去并计划未来。第一次证明这点的是灌木鸦(scrubjays),它们可以根据过去的某次经验记住何时何地藏匿的东西,他们可以根据明天在哪里吃早餐来计划存放食物的位置,还可以利用过去的经验来预测其他人是否可能窃取他们的存货,并采取相应的预期行动。

自这一发现之后,科学家在许多其他种群中也发现了记忆内容、地点和时间(或事件)的某些能力,包括啮齿类动物、类人猿等哺乳动物 、鸦类、甚至一些头足类动物(如墨鱼)和昆虫(如蜜蜂)。

问题在于人们是否可以在不需要意识的情况下解释这些行为。在非言语动物没有任何确定的意识标记时,我们如何知道什么、何时、何地的记忆和规划未来的能力是否伴随着自主和时间感觉的现象学意识?对于“现在没有证据不等于证据不存在”的问题,我们又该怎么办?

LeDoux 和 Birch 认为,自知意识很可能是人类特有的,但也可能出现在一些其他动物(例如类人猿)上,但重要的是不要忘记,进化不一定是同源的。关系较远的动物(例如鸦科动物),也可能进化出了与类人猿相似的认知能力,正是因为它们的祖先有着和类人猿祖先相似的问题需要解决。

也许这是 AI 意识科学和比较认知科学可以互相学习的东西:对我们物种来说的多种陌生智能(无论自然的还是人工的),它们的进化轨迹可能是趋同的,但不是同源的。

Nathaniel D. Daw

普林斯顿大学神经科学研究所和心理系

现在感觉就像我们正在那些经典的思想实验一样。经过训练来模仿人类语言的大语言模型可以自信地声称拥有全方位的意识体验,就像《纽约时报》的记者 Kevin Roose 和早期 Bing chatbot 的对话一样。防止这种自我拟人化的虚构是微调此类模型以进行部署的明确目标之一。

但面对不久的将来中会出现的 AI 系统,我们又是否应该认真对待它声称自己有意识的说法呢?这不是一个容易回答的问题,它包含很多关于心理学和神经科学的知识,以及它们与人工智能的关系所提供的共同机会。

在一定程度上,闪烁其词的 Chatbot 体现了脑科学中一个长期存在的问题。20 世纪心理学的一个主要项目是用客观测量取代内省的主观报告,将心理学研究领域重塑为实验室研究科学。早期的行为主义者试图根据客观刺激和反应来推断行为规律,而不参考内部的主观构造。

后来的认知心理学家使用巧妙的实验设计来推断行为背后隐含着的心理操作和表征,后来得到了更直接的神经科学测量和操作的支持。因此,如果一个人声称自己是联觉者(比如不自觉地将单词或数字也视为颜色),实验者可以通过研究颜色和符号如何影响视觉搜索速度来确认这是不是实话。

心理学的实证转向的一个特点是用一组问题代替另一组问题:用(对我这样的计算神经科学家来说)更容易理解的也更有趣的问题(关于表征和信息加工操作的机械问题)来取代作为研究对象的主观经验的“难题”。研究人员认为与意识相关的两个例子是(1)元认知的行为操作化,例如推理自己的信念或行为的能力,这通常依靠判断信念是否正确来评估;以及(2)主动、有意选择的行为操作化,这通常凭借目标或意外情况发生变化时重新计划的能力来评估。

同样的策略适用于人工智能系统吗?这个问题并不简单。LLM 爆炸的一个关键驱动因素是“标度定律”(scaling laws,随着模型大小、数据集大小和用于训练的计算浮点数的增加,模型的性能会提高。当不受其他两个因素的制约时,模型性能与每个单独的因素都有幂律关系)的发现。

如果可以量化模型在某些任务上的表现,则可以根据模型及其数据的大小推断该基准测试的改进,并解决超人表现问题。遵循这一策略后,我们可能就要问,这样的 LLM 通过律师资格考试意味着什么?它在标准分析中的反应是否意味着它真正表现出心理理论?

这个故事又变得熟悉起来。自从我们对认知进行行为操作以来,我们就对它们的解释存在分歧。如果动物能够准确地判断出它们的感知是否准确,这是否意味着它们实际上能够通过元认知来询问它们的内部感官状态?或者他们正在遵循一些令人困惑的策略?

在我看来,这些分歧常常会分散人们对本质的注意。按照这种设计,此类任务几乎不可避免地会产生超常的行为。大脑执行这些操作的机制非常有趣,即使结果并不完全符合预期。例如,神经上的结果表明,大部分支持深思熟虑的计划的计算可以提前发生,并且以与最初假设不同的方式进行:就像向后求解迷宫一样。那么这算不算是深思熟虑?这又重要吗?

LLMs 提供的情况也是相似的,即使它们的文字游戏可以说是一种猜谜,或是一种彻头彻尾的谎言,但它们还是邀请我们去询问,什么样的内部表征和变化让他们能够有效地推断心理理论、因果关系或进行道德判断。当然,这是早期联结主义的面包和黄油:通过构建和分析神经网络模型来理解大脑,这些模型是通过调整模型神经元之间的连接权重来训练的。鉴于当今功能更广泛的模型发展,这种方法早该复兴了。

此类问题的新版本利用了这样一个事实:模型是通过最大化一些可量化目标(如单词预测)来训练模型的,通过数据来调查这些目标中什么导致了这种意外的突发行为。例如,LLMs 最实用的能力之一是从几个例子中学习新任务或概念,而无需逐步调整用于初始训练的连接权重。最近的证据表明,这最终是基于他们所训练的自然语言数据的统计结构。像这样的机制问题很难回答,但它们可能非常有启发性,而且也许不像直面意识那么困难。

Chris Frith

伦敦大学学院 Wellcome 基金会神经影像中心、高等研究学院哲学研究所

当一个生物有意识时,它就有主观体验。我相信这种主观体验的机制得到了进化。在进化的早期,有些生物不需要任何主观经验就可以控制行为。后来,有感知的生物出现了。这些有感知能力的生物创造了一个世界模型来指导它们的互动,从而使它们不再是外部刺激的奴隶。随着神经系统变得更加复杂,与感知相关的主观体验变得更加丰富。

后来新的特征出现了,最好的例子是人类,他们可以反思自己的主观经验并与他人讨论这些经验。这样的讨论为发展我们的世界模型提供了另一种手段。在人类中,这三个层次的控制是并行的。

我相信许多动物都是有知觉的,具有最底层的两个控制层次。少数动物可能会达到第三层,但只有人类才具有高度发达的第三层。相比之下,AI 的大语言模型经过单词训练,在某种意义上具有最高层次,而没有两个较低的层次。在这种情况下,他们没有意识:他们没有可以反映的感知水平。

但只有这个最高层次意味着什么呢?人工智能需要什么才能变得有意识?为了回答这个问题,我们需要研究不同层次之间的相互作用。

来自较低层次的信号提供了有关大脑/心智工作的信息(元认知信号)。例如,我们有流畅的体验:快速、轻松地感知一个物体,快速、轻松地选择适当的行动。这些流畅的感觉可以被解释为信心的标志。通过与他人分享我们的信心程度,我们可以改进我们的决策。

这些来自较低层次的信号在控制我们的世界模型方面发挥着至关重要的作用。没有它们,我们就不会尊重世界,无法区分表象与现实。大型语言模型缺乏这些信号,他们有一个模型,但它不是任何东西的模型,它不以感知为基础。AI 系统没有元认知信号提供的限制。当他们偏离现实时,他们毫无头绪。

来自最高层次的信号会修改较低层次的功能。这些信号通常以口头指示的形式来自别的地方。但这是如何运作的呢?

我们可以将从指示中学习与从直接经验中学习进行对比。例如,在威胁条件反射中,我们了解到,当我们看到一个提示(例如蓝色方块)时,很可能会受到痛苦的电击。这种关联是通过反复试验慢慢建立起来的。

意外的电击会引发预测误差,但是,一旦提示引发了先前的电击预期,就不再引发预测误差。相反,如果给出指令“从现在开始,蓝色方块出现就会有电击”,则先验值会立即附加到提示上,并且预测误差会被抑制。我们不需要学习这种关联知识,只需要先验的信息。

LLM 仅通过语言指令进行学习。他们建立了一个复杂的先验期望网络。这好比是你从别人的冒险故事中了解了一个未知的国家,但你没有对自己祖国的经验,所以你没法把两个国家作比较。人工智能如果要实现意识,就必须加入通过直接经验进行学习的低层次系统。

Hakwan Lau

日本 RIKEN 脑科学研究中心

考虑人工智能可能会帮助人们试图理解动物感知,因为它迫使我们思考可能构成感知的功能机制。为此,我们可以将感知定义为对自我断言(self-asserting)和主观定性(subjectively qualitative)的感觉信号的有意义加工。不同于感觉的常见概念,有了这个定义,实施假设就更容易了。

“自我断言”意味着一个人的中央推理系统致力于在某种自动的、前反思的水平上将相关信号视为表面上正确的信号。在日常思维中,如果一个想法与其他想法相矛盾,它通常会被认为是错的,有时甚至被彻底排除。但生活中,即使医生告诉我们我们身体没有任何问题,我们也无法通过推理消除头痛的感觉。

“定性”意味着相关信号采用某种类似模拟的格式,可以与其他信号进行分级比较。例如,红色与粉色比与蓝色更相似。体验的质性根据其与其他体验之间的相似程度来定性。

感知觉要求这些成对的相似关系在两个重要方面是“主观的”。首先,它们必须关注一个人自己的感知过程,而不是一般的世界知识。这种区别具有元认知含义:因为我是轻度红绿色盲,所以深红色对我来说看起来与棕色相似,但我知道对其他人来说可能并非如此。其次,这些关系对于一个人的中央推理系统来说是可用的,即使只是内隐的:我无法有意识地看到红色,除非我知道,它对我来说更像是粉红色而不是蓝色。

有了这些定义,在当今技术的发展下,AI 意识的可能性或许就在眼前。未来的机器人可能会像我们一样遭受痛苦,如果它检测到无法因为推理消失的身体伤害信号,并且其在主观质性上与其他对自己造成伤害的信号高度相似。如果有人怀疑这样的机器人是否真的有感知能力,那么人们也应该质疑是什么让动物有感知能力。对于生命体和“人造体”,标准也应该同样严格。

在生物学中,我们通常会去寻求功能机制,一旦理解了这些,理论上人工实施应该是可能的。然而,我们经常依靠直觉判断动物的感知觉,尽管知道自己这样做有过度拟人化的倾向。假设移动的动物有感情似乎是合理的,但像含羞草这样的植物也可能看起来“害羞”,因为它“后退”远离我们的触摸。但我们是否可以说这样的植物是有感知的呢?

更好的见解可能来自于对动物生物学的仔细考虑。但即使对人类来说,许多感知机制也支持无意识加工:动物与我们共享这些机制并不一定意味着它是有知觉的。

我们的许多基本基因构成在系统发育过程中都是共享的,就连酵母菌也是如此。因此,仅仅拥有一些共同的生物学特性并不一定能够表明感知的普遍性。许多涌现现象需要所有必要的机制存在。 就像汽车有发动机但没有轮子也不能行驶一样。

这里提出的两个关键特征(具有自我断言性和主观定性的感觉信号)似乎都很重要。如果纯粹的逻辑可以减轻这种痛苦,那会是怎样的痛苦呢?或者,如果它完全缺乏主观质性会怎么样,这样对你来说,它是不是更像一种隐隐的疼痛,而不是轻微的中风呢?如果缺少其中任何一个特征,我们还会有什么感觉吗?

在人类中,一些相关的神经机制可能依赖于外侧前额叶,而在啮齿类动物中没有同源物。这并不是说啮齿类动物绝对没有知觉,它们在大脑的其他地方可能具有功能相同的机制。但关键是,在我们弄清楚这些机制之前,坚持认为某些动物仅仅因为它们活着并且可以对外部刺激做出反应而具有感知能力可能是相当不科学的。

Megan A. K. Peters

加州大学欧文分校认知科学系、加拿大高级研究所大脑、心智和意识项目

这里的核心主题是“感觉如何”:关于感受质或者“有意识”智能体经验的现象特征。我将重点讨论人工智能的问题:现在的 AI 是否可以具有现象学经验,不久的将来后呢?我将讨论两个主要考虑的因素。

首先,许多人指出,随着 AI 变得越来越复杂,它似乎会自发地发展出许多通常与意识相关的认知能力,例如心理理论、认知灵活性或元认知。因此,人们很容易认为 AI 可能已经有意识了,或者只要我们把它变得更复杂一点,它就处于“意识觉醒”的边缘。

让我们避免这样琐碎的观察:看似拥有心理理论与实际拥有心理理论并不相同,并支持着不同的论点。认知能力中哪些可能是意识的充分指标——尤其在非人类系统中?不幸的是,答案很大程度上取决于你问的是谁。许多关于意识的神经或计算基础的理论都声称有实证证据的支持,但它们对于意识如何产生或与复杂认知相关提供了不相容的假设。

声称 AI 可能很快就会拥有(或已经拥有)意识,需要将这些相互竞争的理论之一升级为人们普遍接受的事实。但我们的科学还无法做到这一点。因此,虽然从直觉上看,AI 再变得复杂一点可能就会变得有意识,但这种情况只符合某些理论,其他人并不认为“足够复杂”的模型会自发地“意识觉醒”。

其次,假设我们已经解决了理论问题,并且确切地知道要寻找什么证据。我们必须考虑到,通过研究(至少在生物计算上)与我们相似的其他可能有意识的主体:人类或者非人类动物,这些证据将被确立为意识的指标。例如,如果一只黑猩猩通过了心理理论测试,我们可能会认为它是有意识的,这很大程度上是因为我们根据了黑猩猩的大脑与我们的大脑非常相似这一事实来进行评估。这种相似性形成了贝叶斯意义上的强大先验,这意味着只需一点点证据就足以让人们相信黑猩猩是有意识的。

但现在让我们考虑一下不太相似的系统,比如章鱼。当然,章鱼是聪明的。但它们有意识吗?蜜蜂呢?类器官(比如培养皿中的迷你类脑结构)呢?随着这些系统与我们的差异越来越大,我们应该需要更多的证据来确信“那里存在意识”,因为我们之前的期望变得不太可靠。

从理论上讲,这应该意味着人工智能的门槛更高,但事实似乎恰恰相反。我们倾向于将 AI 拟人化,尤其是现在的大型语言模型,它们通过流利地模仿人类语言模式而显得“很人类”。结果,我们无意识地形成了一个强假设:AI 应该具有意识,因此只需一点点证据(例如通过心理理论测试)就足以得出意识存在的结论。但这种信念很大程度上是由我们(可能是无意识的)的先验期望驱动的,而不是证据本身的强度;任何具体证据都可能确实很薄弱。

人工智能的快速发展需要更加成熟的意识科学。虽然我不相信当前的 AI 具有意识,但我也知道当前的测试还不够充分。当我们继续完善描述人类意识如何产生的理论时,我们还必须努力开发更敏感、更具体的测试,以区分先前的期望——特别是对于与我们全然不同的系统。

Susan Schneider

佛罗里达大西洋大学未来心智中心主任

复杂的 AI 系统声称具有意识。例如,谷歌的 LaMDA 聊天机器人声称自己既具有意识又具有人性。LaMDA 从哪里得到这一切?这是一个深层次的问题,最快速的答案是通过访问大约 1.6 万亿个单词,包括维基百科以及有关大脑和意识的书籍,并且它的深度学习网络中有很多处理层,可以在这些输入之间生成有趣的联系。回想起来,询问 LaMDA 是否有意识,既没有说机器有意识,也没有说它没有意识。(在这里,我认为“有感觉的”和“有意识的”具有相同的意思:拥有内在的体验。)

2016 年,我首次提出要对 AI 的意识进行测试,我提供了芯片测试(Chip Test)和“AI 意识测试 ACT”(AI consciousness test,与天体物理学家 Edwin Turner 共同开发)。在这里,我主要讲一讲 ACT,这是一项自然语言测试,其中相关的问题发表在《Artificial You》上,它通过给人工智能一系列思想实验来探索 AI 是否理解思维与身体分离的想法,是否认为意识超越肉体等等。

当然,任何意识测试背后都假设存在着其他思想。如果你是唯一有意识的实体,那么其他生物,无论是人工智能还是人类,都不会有意识。基于这个假设,ACT 被认为是 AI 意识的充分条件,也就是说如果一个系统满足 ACT,我们就认为它是有意识的,但其他未能通过ACT的系统,它们也可能是有意识的,比如一个不具备语言特征的系统,或者一个系统与人类非常不同,以至于它根本无法像我们那样理解这些情况。

我强调,深度学习系统只有在研发阶段被“限制”(boxed in,被限制接触关于心智、意识的事实)时才成为 ACT 的候选者。但结果令人失望,因为 LLM 随着规模的扩大而表现出了新兴的特性,比如不稳定的行为和感知报告、以一种物种歧视的方式对待非人类动物等等。

但这并不意味着假设 LLM 有意识是正确的:我们从未确定他们是有意识的,假设 LLM 具有意识可能会引发类似电车难题的道德困境:比如可能会牺牲人类的生命来拯救大语言模型。为此,我们迫切需要从非人类动物、情感等方面的比较工作中获得一门关于机器意识的科学。

那么,我们怎么判断那些没有受到限制的 LLM 是否有意识呢?我并不认为 ACT 是一个充分条件,我建议在 ACT 中增加一个“可解释条件”(IC),这样修改后的 ACT 可以被视为意识的标志。这样,重要的(尽管不是决定性的)证据可以表明意识的存在。IC 指出,如果系统除了通过一系列问题之外,还满足以下条件,则在没有受到限制时可以通过 ACT:

(1)首先,在回答 ACT 时,系统加工信息和反应的方式类似于有意识的人类或有意识的非人类动物(与人类或非人类动物的大脑网络有类似的意识基础物);

(2)系统具有一系列内部状态,类似于人类在回答 ACT 问题时所处的状态。

没有受到限制的人工智能通过 ACT 只是其可能具有意识的标志,因为它们可以通过粗粒度的大脑模拟来表现出功能意识,而无需现象意识,它们缺乏意识所需的成分(可能是细胞或量子) 。

IC 面临许多挑战。随着我们对意识加工的理解不断加深,IC 必须进行更新。解释深度学习模型如何做出决策也很困难,因为今天的 LLM 是无法解释的。它们是通过从数据中“学习”而设置的数十亿个参数的集合,很难推断出系统的基本原理。并且,GPT-4 目前被设计为禁止报告意识。

面对这些挑战,我认为首先需要开发可解释的 AI 系统,这对于人工智能安全是必要的;其次,人们需要允许 LLM 报告其有意识的行为。当前的这些 AI 系统作为语言系统,它们交流意识的主要手段就是言语报告,禁止这种行为是一种不道德的做法;第三,由于 LLM 随着规模的扩大会表现出新兴的特征,从意识测试的角度来看,这些特征必须是不断可解释的,因此,持续地重新测试也会成为关键。

理想情况下,ACT 仅在受到限制的 AI 系统上进行。但即使系统没有被限制,人们也可以从人类和非人类动物的案例中汲取经验,并在 AI 系统中加以改进,作为拓展 ACT 的一个场景/标记,这将帮助人们更好地理解意识加工。

虽然在这里,我无法深入地讨论感知伦理,但我认为如果 AI 有这样一个意识标记,我们就不应该去构建它(除非有国家安全或科学的需要),如果我们要去构建这样的 AI,我们不应该将其部署在以下情况:因为它不清楚的意识状态让它和普通人类之间存在伦理权衡。此外,我们应该尝试对其进行限制并进行 ACT 以获得对其意识状况更明确的证据。

Anil Seth

苏塞克斯大学意识科学中心和信息学系、加拿大高级研究所大脑、心智和意识项目

检测人类之外的意识充满了困难。目前还没有可以普遍用于任何系统(生命或非生命)的意识测试,甚至对于非人类情况下的意识还没有达成共识的定义。但我们还不是完全的举手无措。我们有一系列意识理论,它们处于不同的成熟阶段,并具有不同程度的实证支持,此外,我们在直觉上一致认为意识会涉及某种“感觉体验”。

因此,推断非人类动物和非生命的AI系统是否存在意识取决于你更喜欢哪种理论、你对该理论的信心程度以及该理论关于意识的必要和充分条件的主张的强度和精确度。它还需要消除(或者至少考虑到)拟人化(将人类的品质投射到其他地方)和人类中心主义(通过人类的视角看待事物)的偏见,当没有客观的标准时,这些偏见将不可避免地影响我们的判断。

其中要避免的主要的人类中心主义偏见之一是将智能与意识混为一谈:我们认为自己很聪明,并且知道自己有意识,所以我们假设两者是相辅相成的。但智能(做正确的事)和意识(感受到经验)是不同的东西。虽然智能带来了新的意识方式,而且基本的智能水平可能是意识所必需的,但我们不能假设意识会简单地随着智能的增加而出现。这一个前提就已经告诉了我们,AI 并不会必然地走向意识,而且动物意识可能相当普遍。

回到意识理论本身,理论的一个关键因素是其如何描述意识的物质基础。一些理论采取了强烈的功能主义观点,认为意识独立于任何特定的物质基础,其本质是信息加工或动力学的问题。其他人则认为因果结构和动力学一样重要,但这种因果结构可以由任何东西组成。我自己则持有一种较弱的“生物自然主义”观点:意识可能仅存在于生物系统之中。

根据我的“野兽机器”(beast machine)观点,所有的有意识体验在形式上都是感知预测,而感知预测最终是基于生理调节的基本生物命令。值得强调的是,这一必要性深入到我们的生物基质,(至少)深入到单个细胞的水平。我们甚至不清楚生物系统中什么算作“基质”。

在具身的大脑中,“思维软件”(mindware)和“湿件”(wetware,被视作计算机的人类大脑)之间没有明显的区别,就像计算机中的硬件和软件之间一样。这反过来又对大脑“加工信息”的普遍假设(该假设是机器意识归属的基础)提出了质疑。简而言之,可能是生命(life)而不是信息加工(information processing)为意识的方程注入了活力。这意味着有意识的人工智能还很遥远:有意识的机器必须是有生命的机器。而另一方面,有意识的动物可能就在我们周围。

我也可能是错的,不过在这件事情上保持谨慎总没有坏处。不管有意还是无意,创造有意识的人工智能都将是一场道德灾难。即使 AI 仅仅通过我们的拟人化滤镜展示了认知上难以理解的意识外观(我们目前几乎达到了这一点),这也将具有极大的破坏性。

无论是 AI、动物、类脑器官、人类胎儿还是脑损伤患者,我们做出的任何有关允许他们进入意识的决定都有巨大的伦理和社会后果。也许这比任何其他原因都更能说明为什么意识科学必须保持优先地位。

Thomas Suddendorf

昆士兰大学心理学系

意识是一种私人事务。我们没法直接知道成为另一个人是什么样子,我们只能进行推断。我们能够轻易地推断出其他人也像我们一样拥有意识体验,主要出于以下三种原因:

(1)他人像我们一样行动;

(2)他人长得像我们一样;

(3)他人就是这么告诉我们的。

因此,当你的母亲微笑着说她很幸福时,你可能很确定她是幸福的(即使可能并不是这样)。对非人类动物进行推论则涉及更多的不确定性,因为我们只能依赖上述的原因(1)和(2)。

比较心理学充满了关于动物行为的争论。一些人类行为似乎是独一无二的:例如准备急救箱,因为我们知道可能会有用得到它的地方。不过,非人类动物也可以在很多方面像有意识的人类一样行动(原因 1):从关节发炎的老鼠寻找止痛药,到黑猩猩通过镜子识别自己的外貌等等。

当所讨论的动物在推理上得分也很高时,我们往往会更加确信行为上的相似性表明了经验上的相似性(原因2)。这不一定是偏见。我们的关系有多紧密,我们的内在和外在看起来就越相似。当一群密切相关的物种(比如类人猿和人类)表现出相同的行为(比如在镜子中认出自己)时,那么就可以假设这些进化的特征具有一个共同的祖先,而不是从每个血统的趋同进化上去解释它。

这反过来意味着潜在的神经认知机制不仅看起来相似而且是同源的(并且关键搜索空间可以缩小到类人猿和人类共享的大脑部分,而不是小型类人猿,因为他们没有表现出相同的行为)。

我在这里指出这一点,并不是因为我认为视觉上的自我识别可以告诉我们很多关于意识的信息,而是为了通过同源性来强调这一推理。当研究人员提出意识的行为标记(例如工作记忆或无限联想学习)并评估在不同动物中的证据时,考虑哪些物种的标记可能与人类的能力同源是有必要的。

当然,趋同进化可能在亲缘关系较远的物种(比如跳蛛、蜜蜂或章鱼)中独立地产生类似的能力,但当意识标志基于同源机制时,我们就有更多理由去推论这些动物具有与我们相似的意识,即使它们自己无法告诉我们这一点。

相比之下,大型语言模型可以“用语言告诉我们”(原因3)。尽管当我询问 GPT4 时,它向我保证“AI 系统基于算法和学习模式进行操作,它们不具备对自身状态的内在感受或意识”。尽管人工智能拥有非凡的智能,但它在满足“像我们一样行动”(原因1)或“和我们长得很像”(原因2)方面并不充分,因为它不是一种可移动的碳基生命形式。

因此,目前很少有人会认为人工智能具有意识。但可以想象,随着 AI 在满足上述三个原因的表现上增加,情况会发生怎样的变化。人工智能通过简单的设计就可以告诉我们它是有意识的,并且 AI 一旦与机器人技术更好地结合,它也可以在行为上表现得更像我们,如果再与真实的生物体融合,它可能看起来也更像我们。

也许令人不安的一点是,大脑刺激可以指导老鼠的行为,这提高了 AI 控制动物的可能性。我估计有很多人会很容易地认为能行走和说话的 AI 动物机器人具有有意识的思维。你对这种“AI 动物”有什么想法呢?我会觉得这一切难以置信。

不过我们应该记住,我们对意识归属的判断绝不会改变另一个实体是否真正拥有意识的事实。 GPT4 认为 AI“可以模仿意识的各个方面,但模仿并不等于真实的体验”。

Marie M. P . Vandekerckhove

布鲁塞尔自由大学心理与教育科学学院、根特大学艺术与哲学学院

意识取决于经验的分层:“意识连续体”(continuum of consciousness)。意识连续体的概念范围从单纯活着和清醒的状态,到最低限度、没有反思参与的“无知意识水平”(例如知觉和失知意识),它们构成了更高级状态(例如思知意识和自知意识)的基础。许多动物都具有最基本的、非反射性的水平,而最高的反射性水平可能是人类独有的。在这两者之间,我们和不同动物群体拥有一些共同的中间水平。

感知是最基本的、以当下为中心的意识水平。以刺激特定的方式对感官印象作出反应,在我看来,意识连续体并不涉及主观感知或体验自己的能力。它先于明确的意识(包括自我意识),并且当不够强烈时通常不会被注意到。它更接近日常生活中我们所说的“潜意识”。这种意识的最低体现水平可能存在于大多数哺乳动物和鸟类中,可能存在于爬行动物和低等脊椎动物中,也可能存在于一些头足类软体动物中,例如鱿鱼、墨鱼和章鱼,但可能不存在于植物、真菌、单细胞生物或人造制品中。

失知意识涉及程序性、躯体感觉-情感的初级意识水平。它表达为一种以身体为中心的感觉,反映了与主要由皮层下回路介导的情感或“体验意识”密切相关的感知。作为一种前反思(pre-reflective)状态,失知意识只有在足够强烈并被体验为“自我体验”状态时才会变得明显。

在满足动物的基本生物需求和人类高阶生存需求的驱动下,失知意识激发并指导人们内隐的偏好、行动和决策。与更高阶的意识认知模型(如 LeDoux 的前额皮层认知再表征模型)相比,我认为皮质下前部脑区是一个情感中心,可以在无需皮层再表征的情况下实现情感缺失的有意义体验。

那么思知意识呢?根据定义,它是一种以“现在”为导向的意识状态,依赖于语义记忆系统,它提供了对自己的过去和世界的陈述性访问,脱离了主观经验或“失知意识”。更广泛的动物(所有灵长类动物、鸟类)、甚至机器都可以被动地进行联想学习,这使得它们能够对世界进行识别和分类,从而为未来做好准备(例如动物储备工具)。

然而,他们可能无法以主动、有意识、回顾过去的方式从自己的历史中调用事实知识。动物和机器都无法对自己的意识作为一种状态进行内省,而人们在内省时可以意识到自己处于这种状态。很可能只有人类能够在“此时此地”的内隐自我意识和世界意识中、在他们对世界和自我的知识之间进行心理区分,并进行反思。

自主意识是一种自我反省的能力,代表着一个人自身在时间上的延续,使人类能够在过去、现在和未来进行心理旅行,并在生动的时间和情境中采取行动。它使我们能够将过去的记忆作为我们自传体的一部分,让记忆充满温暖和亲密。我认为动物缺乏对自己的记忆进行有意识反思的能力,尤其是在时间和情境方面,因此我还假设这种自我反思的意识模式可能是人类独有的。

总之,存在于“此时此地”的前反思性感官体验以知觉和失知意识状态的形式出现,它们是进一步反思性意识水平的先决条件。由于有机体“体验某事”的能力构成了意识生物学的一个组成部分,如果没有这种体验,意识似乎就不可能存在于有机体中,人工意识也无法被构建或实现。

本文来自微信公众号:Mindverse Research(ID:gh_be9d7092abf7),发起人:Joseph LeDoux(纽约大学神经科学中心和心理学系)、Jonathan Birch(伦敦政治经济学院自然与社会科学哲学中心),编译:朱思嘉

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com

正在改变与想要改变世界的人,都在虎嗅APP