我关心哪些计算?

作者:Brian Tomasik

首次发布: 。最后重大更新:

摘要

我们理所当然地关心有意识的痛苦,包括我们自己、同胞和其他高等动物的痛苦。然而,对于那些我们的直觉不太成熟的棘手案例,我们应该如何看待?我们是否应该关心像昆虫这样更小、更简单的动物?数字心智?模拟?我从两个角度探讨了这些问题:(1)如果你是两个不同构造的心智之一,你能主观上分辨出你是哪一个吗?(2)这个心智是否经历有意识的情绪?我认为,一大类抽象心智值得我们关心,包括具身和非具身的数字心智,只要它们运行正确的算法。与心智实现的新兴算法相比,心智的外部物理特征往往并不重要。我的讨论提出的问题与答案一样多,我最后探讨了其中的一些问题。

目录

引言

当我们采取减少痛苦的目标时,我们需要确定世界上哪些东西可以遭受痛苦,以及遭受多少痛苦。这个问题没有一个明确定义的答案,就像世界上哪些东西有质量以及有多少质量一样。相反,我们需要选择我们所说的"痛苦"是什么意思,也就是选择我们想要关心哪些东西作为痛苦。虽然原则上这个答案可以是任何东西,但我们大多数人都感到有义务对我们的关心应用规律性条件,例如,两个只在微不足道的方面有差异的事物应该得到类似程度的关心。

关心的类型

我们在许多层面上关心事物。在实际层面上,我在做很多事情时表现出比其他生物更关心自己,即使考虑到个人健康和意志力的重要工具价值之后也是如此。这是不幸的,但这是现实情况。然而,这并不意味着我不能描述一个我希望通过利他行为达到的"理想化"关心框架。本文探讨的正是这个理想化的框架。

我们也有不同模式的利他关怀。一种是快速的情绪反应——当我们看到有人受伤时,会感到厌恶、悲伤或愤怒。通常它有相当好的精确度,尽管有时也会出错:例如,当我们看到一个已经死去的动物被切开时,或者当有人刺伤一个逼真的玩偶时。在许多情况下,它也不够激发:例如,当受伤的生物不在视线范围内时,当伤害以数字形式报告时("一个人的死亡是一场悲剧,数百万人的死亡只是一个统计数字。"),当受苦的人不吸引人或看起来很邪恶时,或者当处于痛苦中的动物令人恶心或可怕时(蜘蛛、蛇、水蛭)。

我们试图通过更深入地思考正在发生的事情来超越我们对痛苦的本能反应。即使切开人体看起来令人厌恶,但如果那个身体已经死亡,那么实际上没有人感受到切口。即使蟑螂看起来令人厌恶,我们也必须记住,它们拥有昆虫亚门中最复杂的大脑之一。婴儿哭声的录音听起来很糟糕,但它实际上并不代表附近有人需要帮助。这些认识构成了一种反思性的关怀模式,我们大多数人都同意,这些观点应该胜过我们的即时反应。随着时间的推移,神经重塑可能确实会使这些反思性情感成为我们更直接的反应。

关怀的最后一个层面是当我们考虑修改我们更反思性关怀本身的界限时。许多富有同情心的人对他们附近的穷人的困境感同身受,但不太考虑那些远在他乡的人。更多的人关心世界各地的人,但不太关心动物。那些也反思性地同情动物的人需要确定这种关怀的界限(例如,昆虫能否遭受痛苦?)。未来可能出现大量非生物心智,我们需要对它们的道德考虑进行分类。在更多地思考各种心智之间的相似性以及我们在其他心智中关心的核心内容后,我们可能会改变我们认为可以遭受痛苦的存在的范围。

主观不可区分性标准

假设医生让你失去知觉。他们把你放进一台机器里,扫描你的身体并创建一个原子级的副本。他们把这个副本放在另一张和你睡着前躺的桌子一样的桌子上。现在你醒来了。你是哪个人——原来的还是副本?你无法分辨。这两种体验是无法区分的(至少在医生告诉你答案之前是这样)。

在道德领域,我们可以引入我称之为

主观不可区分性标准:给定你大脑的两个版本,如果你无法主观上分辨你是哪一个,那么这两个心智应该得到同等的道德权重。

"主观上"这个副词很重要,因为你可能通过让外人检查它们、被告知哪个是哪个、照镜子等方式来区分你的两个大脑。重要的是你是否能仅仅"从内部"分辨出来。

这个原则看起来足够无害,但它的含义是戏剧性的——以至于即使我自己也很难接受其中的一些含义。让我们在下面检查一些。

基底独立性

David Chalmers有一个著名的"渐隐感质"思想实验来说明心智的基底独立性。虽然我在意识是什么这个问题上与Chalmers有很大分歧,但这个特定的例子对于像我这样的意识还原主义者来说同样有效。这个场景想象科学家已经设计出完全模仿天然碳基神经元行为的人工硅基神经元。

你大脑中的原始神经元被一个接一个地替换成这些人工芯片。在手术过程中,你的思维能力和行为保持不变,因为根据假设,人工神经元复制了常规神经元的所有重要操作,奥卡姆剃刀原则反对任何进一步参与大脑调节的东西。a如果在你失去知觉时对你进行这个过程,醒来后你就无法分辨你有哪种神经元。从内部来看,"感觉"是一样的。

再进一步,我们可以想象,只要内容在被大脑访问时是相同的,记忆是存储在神经关联模式中还是存储在电子存储单元中并不重要。电子存储是RAM、磁盘、磁带、闪存还是其他什么也无关紧要。它甚至可以是纸上的涂鸦,只要访问速度足够高(当然在这种情况下是不可能的)。这里我假设神经记忆的存储机制不是意识的关键组成部分。这看起来是合理的,但应该进一步探讨。

其他硬件组件也无关紧要:使用什么类型的导线或布线结构,处理器由什么材料组成,材料的密度如何等。

我们熟悉生物神经元和数字逻辑电路之间的区别,但实际上,计算基底的空间要大得多。例如,储层计算领域使用递归神经网络,其中输入以任意、随机、非线性的方式由中间神经元簇处理,然后这些处理后的特征可以与原始输入一起用于预测。(这让人联想到机器学习中的核方法。)除了使用数字计算机来计算这些中间神经元激活外,研究人员还采用了(见第3-4页)模拟电子、晶体网络、光学系统,甚至物理水波。正如场计算学科所表明的那样,物理学允许许多计算基底。

这些提议为反功能主义者的论点提供了新的视角,即数字计算机不能有意识,因为我们可以将各种其他物理系统解释为进行类似的计算(例如,Mark Bishop的"为什么计算机不能感受痛苦")。反功能主义者声称,"计算机不可能有意识,因为其他物理过程可以被视为进行类似的操作。"功能主义者回答说:"谁说你不能用那些其他物理过程来创造有意识的心智呢?"用模拟物理学计算并不是对反功能主义者关切的完整回应(更多内容请参见本文后面的"什么是计算?"),但它是对一些哲学家在想象例如水的物理学可以在智能计算中发挥任何有意义作用时感到的难以置信的一个有启发性的反驳。

计算基底可能重要的一种方式是,某些类型的计算只能用某些类型的基底来完成。例如,如果连续的物理操作实际上是意识的一个不可或缺的部分,那么将物理操作与使用该基底的操作区别对待可能是合理的,而不是当前计算机所做的数字操作。当然,人们可能会将连续的物理处理连接到人工计算机上,所以区别不在于生物学与人工计算,而只是在于数字计算与连续计算。无论如何,我认为没有明确的证据表明大脑的计算需要连续而不是数字物理学,到目前为止人工智能的进展表明我们可以仅用数字算法就走得很远。即使我们的大脑使用连续的物理特性,为什么不也关心可以执行类似功能的数字人工智能呢?

模拟

假设你大脑的感官输入逐渐被不可察觉地替换为假输入,就像未来虚拟现实中使用的那样。不是真正的光子击中你的眼睛,而是从你的视神经到大脑的视觉信号是由编码相同数据的人工电脉冲创建的。你的耳朵、鼻子和舌头也是如此。然后是你皮肤和内脏上的神经元。现实感觉和以前一样,因为你大脑的输入与之前没有区别。如果输入足够真实,你就无法将其与"真实"世界区分开来。

无意识算法无关紧要

你的身体做了很多你大部分不知道的"计算":血糖管理、激素释放、消化、自主神经调节、细胞修复、RNA转录等。你可以通过发送到大脑的信号检测到其中的一些,但计算的细节是不透明的。你大脑中发生的很多事情也是如此:许多基本和复杂的行为都是无意识发生的。这方面一个引人入胜的例证是盲视。事实上,大脑所做的大部分事情都是无意识的(冰山类比)。

只要你有意识的心智的输入是相同的,你就无法分辨产生这些输入的算法,所以它无关紧要(对你来说)。如果输入几乎相同,那么它们是如何生成的就完全不重要了。例如,人类大脑很可能使用类似神经网络架构来解决分类问题。但如果我们改用决策树呢?只要分类性能相似,这会有什么区别吗?我猜不会。支持向量机、集成方法、提升、装袋或其他任何方法也是如此。计算可以是串行的或并行的。它可以在本地完成,也可以发送到邻近城市的计算集群(只要响应延迟足够低)。

时钟速度

本节已移至

大脑大小?

天真地看,如果你大脑运行的底层算法是相同的,那么执行计算的材料的物理大小似乎不应该重要,因为你无法判断材料有多大。例如,如果你的大脑是电子的,运行在导线上,那么将这些导线的厚度加倍并不重要。同样,如果一个大脑使用许多神经元来传输小脑用单个神经元传输的相同信号,那么使用的神经元数量并不重要。

绝缘体思想实验

Nick Bostrom有一个思想实验,可以用来说明为什么大脑大小应该影响体验的数量:假设你有一个由导线组成的大脑,你无辜地将一个电绝缘体滑到导线中间,以至于电子现在不能跨越间隙,而计算仍在运行。你是否因此使主观体验的数量翻倍了?许多人认为不是。毕竟,他们可能会说,如果你之前是那个大脑,你不会注意到绝缘体被滑入你体内,所以最终产品与原始产品相同。当然,情况不一定如此,Bostrom本人认为当绝缘体插入时确实发生了一些重要的事情。没有类似于质量/能量守恒定律的意识守恒定律。如果环境发生变化,将一个统一的有意识主体转变为两个,那么我们的评估可能会改变。

谁是"你"?

这个例子突出了

主观不可区分性标准的隐藏假设:在谈论"无法分辨你是哪个大脑"时定义"你"已经包含了关于"你"是什么以及有多少个"你"的概念。

在电绝缘体的例子中,我们看到在绝缘后是否仍然只有一个"你"还是两个"你"并不清楚。在其他情况下,比如下一节中的情况,一些人可能会质疑是否存在任何"你"。

这种"你"的说法的问题在于,它接近于小人谬误,将你的意识想象成有一个单一的"座位",它居住在那里并观察发生的一切。但事实上,自我感是并行过程的副产品,这些过程没有明确的中心、起点或终点。意识不想被我们的二元分类所束缚;大脑只是做它该做的事,迫使我们想出分类。

这个讨论还有很多要说的,但它对这篇文章来说太长了,所以我把它移到了"大脑大小在道德上是否相关?"

物理模拟?

假设我有一个软件物理模拟。它非常精确,可以计算你身体中每个质子、中子和电子的位置,并将它们存储在一个大的数字列表中。b例如:在时间t = 8.2384时,质子#1在(18.2348, 7.2374, 9.0992),...,中子#1在(1.2012, 97.2286, 34.1235),...,等等。如果我们运行这个程序——推进时间步长,计算每个粒子位置的更新,并用新的数字列表替换旧的数字列表——结果是你心智的有意识实例吗?我很难接受这一点,因为数字更新看起来与我大脑中发生的事情非常不同。当我们只谈论不同的硬件,或非必要子程序的差异时,我可以眯着眼睛说新大脑看起来足够像我自己的大脑,可以想象成为那个新大脑。在这种情况下,看起来甚至没有任何心智;就像中文房间一样,第一印象是说正在进行的只是一堆与任何神经处理无关的愚蠢更新,更不用说任何思考了。你可以试图否认这里有任何心智,这样主观不可区分性标准就不适用了。

但是这样想:真实的物理学也只是一堆微小粒子的愚蠢更新。这些更新以这样一种方式一起移动,如果你看一个足够大的尺度,你会看到一个看起来像心智的结构出现。我们开始对那个由基本上只是愚蠢的粒子更新组成的变化集合采取一种"现象立场"(类似于"意向立场")。因此,我们也可以眯着眼睛看这一系列数字,认识到一个更高层次的模式正在其结构中显现出来——一个定义的算法正在显露其面貌。比较一下ASCII艺术如何仅从"愚蠢的字符序列"产生我们立即识别的图像,或者普通图像如何从"愚蠢的像素"产生。

我们从愚蠢的数字更新中看到出现的算法可以用来粗略预测未来数字的宏观结构,甚至不需要进行微观物理学。开始看起来合理的是,将这个过程视为它自己的心智,一旦我们这样做,主观不可区分性标准意味着这个心智无法将自己与以另一种方式运行的相同心智区分开来。

在硬件中运行的大脑与通过软件数据表示物理学构建其硬件的大脑之间确实存在差异。但归根结底,我们最关心的似乎是操作的算法结构。我们已经在上面看到了很多例子,其中硬件的具体细节并不重要。无论如何,在我们成为物理学沙文主义者之前,我们应该记住,也许我们自己的现实本身就只是一个数学表示

硬件vs软件

关于物理模拟问题的好消息是,它可能并不是很重要。微观物理学计算非常昂贵,几乎所有模拟都可能在更高的抽象层次上进行。

这让我们想到一个更普遍、更重要的问题:基于硬件的模拟(心智由执行其功能的硬件组件组成)是否应该与基于软件的模拟(心智由其组件的抽象数据结构表示,交互通过软件抽象完成)同等对待。类似于物理学案例中的论点表明,软件应该与硬件平等对待,尽管我仍然不完全确定这一点。

一旦一个算法被很好地建立用于工业用途,它可能会从软件转移到硬件。其中一个例子是硬件神经网络:

当特定任务不需要超快速度时,大多数神经网络解决方案的设计者发现在没有特殊硬件附加设备的PC或工作站上进行软件实现是一个令人满意的解决方案。然而,即使是最快的顺序处理器也无法为具有大量神经元和突触的网络提供实时响应和学习。另一方面,使用多个简单处理元素(PE)的并行处理可以提供巨大的加速。一些专门的应用激发了硬件神经网络的使用。例如,消费产品中用于语音识别的廉价专用设备,以及直接实现所需功能的模拟神经形态设备,如硅视网膜。

当在硬件中实现时,神经网络可以充分利用其固有的并行性,运行速度比软件模拟快几个数量级。

如果从软件到硬件的长期转移是一个普遍原则,那么我们可能会预期未来的许多心智将通过硬件实现,在这种情况下,硬件与软件的问题就不那么重要了。未来的大多数心智是否会基于硬件是一个值得进一步研究的有趣话题。

抽象计算机

任意的通用图灵机能否产生意识?这是否包括在封闭房间里操纵符号的人,或乐高计算机?一个每百万年执行一次图灵机操作的机械装置呢?再次,答案似乎是"是的,如果图灵机实现了正确的算法",因为如果环境输入信息信号与生物人类的相同,你作为那个计算就无法分辨你在什么上面运行。

2016年7月更新:对主观不可区分性标准的批评

我在2013年写了这篇文章的大部分内容。自那以后,我对意识的看法略有改变,我现在(2016年)认为主观不可区分性标准略有不足。

正如"主观不可区分性标准的隐藏假设"中所暗示的那样,很难定义哪些计算是"你"的实例,哪些不是。事实上,任何物理过程都可以被视为实例化"你",给定某种解释。但让我们假设我们有一个框架来识别那些最显著构成"你"实例的计算。

另一个问题是解释"主观可区分性"的含义。我们用什么标准来决定一个心智是否能区分自己与另一个心智?我们可以将"将自己与另一个心智区分开来"定义为"做出正确识别实现你思想的算法不是某个其他算法的口头陈述"。例如,一台Windows计算机可能会正确输出一个声明说"我不是运行Mac操作系统"。但为什么要把口头输出作为黄金标准呢?如果一个人有严重的表达性失语症而无法做出任何陈述呢?也许一个替代方案可以是一个人按下一个按钮来正确区分自己。但如果这个人也不能移动呢?或者如果这个人根本无法自愿控制思想,但仍然有与主观可区分性相关的原始思想呢。或者如果我们考虑这个人大脑中更基本的神经元子过程隐含地宣称自己与其他大脑中的其他类型的子过程不同呢?明确划定主观区分自己与不同算法的含义是很棘手的。

最后,与其将自己视为一个特定的物质团块,我发现更有帮助的是将我的抽象认知算法概念化为共同决定许多物理系统的演化。在这种情况下,主观不可区分性标准可以重新表述为"你应该给予所有显著实例化的大脑版本相同的权重,不管基底或实现细节如何"。然而,这仍然回避了什么算作我大脑的实例化的问题。它需要有多少细节?计算机模拟我的大脑是否不算,因为它没有实现原子级的量子力学,即使高层行为相似?相反,我大脑一般行为的微小模型是否算数,即使它不包含神经元级的动态?主观不可区分性标准背后的直觉想说"如果一个实例在主观上与你自己的生物大脑无法区分,那么它就算数",但我们已经看到了使这个概念精确化的困难。

有意识感受标准

我们在不离开自己的心智的情况下已经走得相当远了!无法在生物、人工、模拟、非必要子程序和物理案例中主观区分我们的心智,已经将一大类大脑纳入了我们的道德范畴。

但主观不可区分性标准显然不足以涵盖所有道德案例。例如,我可以通过查看我是否知道我童年的某个模糊事实来主观区分自己和你。我可以通过检查我是否会做积分来主观区分自己和墨西哥农村的农民。然而,很明显你和墨西哥农村农民也应该得到道德考虑。

我们需要一个不同的原则来捕捉其他心智中使它们有价值的东西。这是非常棘手的,但通俗地说,这些心智之所以重要,是因为它们有一种"体验情绪是什么感觉"的感觉。例如,当我对自己说,"哇,我有意识!我的经历有独特的质地,这真是太神奇了",这就是我们所重视的东西。当然,我能够将其表述为一个句子并不重要——这样做会排除年幼的儿童和非语言动物,但似乎他们也以一种隐含的、非语言的方式有这种感觉。

图书馆可以装满历代试图捕捉我所说的本质的著作,所以我不会努力更详细地理论化。大致上,我提出一个

有意识感受标准:生物体可以明确或隐含地反思其情绪,认为这种体验"感觉像是什么"。情绪本身是价值或反价值的来源。

镜子测试可能大致足以表明现今动物的意识,尽管我很确定这不是一个必要条件。例如,狗不通过镜子测试,但这可能是因为它们不是主要的视觉动物,相反,它们可以通过尿液识别自己的气味。也许其他动物根本无法识别自己的物理迹象,但仍然有这种能力在表面下反思自己的情绪。D. M. Broom呼应了这一点(第100页)。意识感受延伸到动物王国的多远并不清楚,但考虑到意识到底是什么的高度不确定性,我不会排除甲壳类动物、昆虫、蠕虫等。我大部分排除,比如说,编程语言中的"类型内省"和"反射"(除非该语言实现了实际的类脑算法),因为它们似乎没有捕捉到有意识自我反思所涉及的全部内容。恒温器也会"反思"其温度并试图调节它,但我很确定我不关心恒温器(或者最多只关心到极小的程度)。

相似的大脑重要性相似

有意识感受标准意味着,如果大脑只在非情感方面有所不同,那么它们同等重要。例如,如果你读过最后一本哈利·波特而我没有,那么除了这个事实产生的情绪差异外,它对我们经历的情感体验的价值没有影响。聪明人的痛苦只有在智力直接影响痛苦体验的程度上,才在道德上与不那么聪明的人的痛苦不同。一只猪运行几乎相同的"感到满足"算法,与苏格拉底相比有可比的道德价值,至少在那个算法的层面上是这样,如果不是整个大脑(可能确实在物质上有所不同)。

非快感计算无关紧要

一般来说,大脑中只有有快感价值的有意识计算在道德上才重要。(这当然是一个有争议的说法,但这是快感功利主义者的感受。)因此,我们可以假设性地剥离大脑中非快感部分,而不影响我们对它的关心程度。根据经验细节,这可能包括大脑皮层的部分和许多其他不做太多情感处理的脑区。当然,在进行这种剥离时,大脑需要保持有意识,否则道德重要性就会丧失。

例如,大脑皮层通常被认为在意识中很重要,尽管显然它不是必需的:

大脑皮层非意识性质的证据包括损伤研究,其中大量皮层可以被移除而不会消除意识,以及生理学研究,其中证明大脑皮层可以在没有意识体验的情况下活跃。

损伤研究表明,可以移除高达60%的大脑皮层而不会消除意识(Austin and Grant 1958)。可以移除整个半球或切除大部分前部或后部大脑皮层,但意识仍然存在。

Fiset 等人(1999)和Cariani(2000)表明,在全身麻醉的无意识状态下,皮层活动可以正常甚至升高。Alkire 等人(1996)还表明,在全身麻醉期间发生与词语识别相关的皮层活动。

我们对大脑何时能够执行某种功能的直觉评估并不总是准确的。例如:

外表无关紧要

正如在开头所讨论的,我们不想随意扩展我们的同情心,因为这对我们真正关心的事物不公平。因此,例如,我们不应该关心逼真的玩偶、小说中的角色、假装受伤的演员、已经死去的动物、在全身麻醉下被切开的人等等。原因是这些东西没有有意识的感受。

同样,吸引力、可爱、令人厌恶、犯罪罪责、心理健康等也不是影响某人情绪的内在重要性的因素。(当然,在某些情况下可能有工具性原因对人区别对待。)

巨大的查找表

我们已经看到,除了有意识情绪的核心算法之外,心智的其他特征似乎并不重要。我们应该如何看待一个控制其行为的算法非常不同的心智——例如,一个使用基于其过去历史和当前状态的巨大查找表来确定其下一步行动的心智?我认为这个心智可能没有意识,因为虽然它可能确实表现出所有外部、行为上的意识迹象,但它内部并没有运行正确的算法。意识的重要部分似乎是实际运行算法,而不仅仅是找出算法会产生的答案。重要的是过程,而不是目的地。

我对巨大查找表的立场是否违反了主观不可区分性标准?我是否无法分辨我是否是一个巨大的查找表?我对这种论点的反对归结为"隐藏假设"的警告:作为一个巨大的查找表,不清楚是否会有一个"你"。究竟什么构成了"你"或不是"你"?它只是外部观察者的行为吗?当然,查找表会声称是你,并声称无法将自己与你区分开来。然而,我认为"成为你"也与内部发生的事情有关。毕竟,我可以在岩石上画一个标志说"我感觉与你无法区分",但这显然是不够的。我认为巨大的查找表也不需要是"你"。我同意这是一个模糊的领域,事实上人们可以将所需的结论烘焙到"你"的定义中,这表明主观不可区分性标准,虽然是一个很好的直觉泵,但可能没有在自然的关节处切割。

进一步的问题

心智的边界是什么?

在大脑大小的讨论中,我们看到这个问题出现了。例如,当金属线大脑被电绝缘体分开时,它是否变成了两个心智而不是一个?我们可以对裂脑患者问类似的问题,尽管因为他们仍然连接到同一个身体,人们可能会怀疑分离是否足够完全。

如果在一个大脑(甚至在周围神经系统)内有相对孤立的子系统,如果这些子系统被分离,它们会表现得像自主生物一样,那会怎样?人类神经系统中是否存在这样的子系统?子系统算不算单独的心智,还是因为它们连接到更大的系统而不算?它们是主观不可区分性标准中的单独"你"吗?它们是否必须实际上是作用于世界的单独主体才能算作可能的"你"?

也许这些问题背后的思考受到了小人谬误的影响,将心智想象为大脑内部意识居住的特定点。当然,大脑的某些部分对意识更重要,但没有一个单一的点是重要的事情发生的地方。此外,意识算法可能在宏观尺度上发生,也可能在更小的微观尺度上发生。也许我们会独立称为有意识的小结构有助于我们也想称为有意识的更大整体。

这方面的一个例子是中国大脑。我们应该如何权衡中国大脑与构成它的所有个体中国公民的重要性?大脑仅仅等同于任何给定的组成人吗?这是一个非常令人困惑的问题,但请记住,没有什么物理上神秘的事情发生。中国大脑就是它本来的样子:一台做事的物质机器。奇怪之处来自于我们试图划定心智的界限并计数它们,说有多少个以及它们有多重要。这个过程是模糊的,因为我们有点试图把方钉塞进圆孔。自然就是它本来的样子;我们的分类尝试有时会感到困惑。无论如何,我们必须尽最大努力,除非我们想彻底修改我们划分和权衡各种心智的程序。

有意识和无意识处理没有明确的分界

正如上面的小人讨论所强调的,大脑中没有一个明确的点产生意识,而其他一切都是无意识的。许多部分一起工作,做我们总体上称为意识的过程。似乎很清楚,有些部分不是很重要(例如,人体的大部分、许多周围神经、一些皮层区域等),但当我们继续剥离看起来不重要的东西时,我们可能最终什么都没有。通过类比,我想象在一个装满填充物的大盒子里寻找一个小戒指,结果发现没有戒指,填充物本身就是礼物的内容。(在大脑的情况下,重要的不是填充物本身,而是结构和算法行为。)

我上面建议,我们可以用任何我们想要的东西替换大脑的无意识部分,而不影响主观体验,只要无意识子程序的输入和输出是相同的。但"无意识"部分的边界是什么?不一定有精确的边界。那么这是否意味着我们可以用任何其他东西替换整个大脑,只要输入和输出相同?我不这么认为,因为,例如,我不认为一个巨大的查找表应该算作有意识。假设你对一个使用巨大查找表的机器人进行图灵测试。你侮辱机器人,它通过哭泣来回应,眼泪从脸颊上流下来。这可能会唤起我们立即的同情,但经过反思,我认为我们并没有导致机器人遭受痛苦,因为这个反应似乎是一个自动反射,重要的中间处理并没有在引擎盖下进行。

所以算法的特征确实很重要,而不仅仅是输入和输出。也许算法对于大脑中与我们认为的意识更密切相关的部分更重要,一个子程序越是外围,我就越不关心它的算法。在这种情况下,也许我对神经网络与支持向量机(与查找机制如记忆化)并不完全无所谓,但如果这些算法不在有意识大脑处理的"核心"附近(承认定义"核心"的模糊性),我几乎完全无所谓。

"快感工作"

Eliezer Yudkowsky问道:"顺便说一句,IEEE 754为+/-INF提供了特殊的表示,也就是说,正无穷和负无穷。如果一个位翻转使你体验到无限快感会怎样?这是否意味着你赢得了游戏?"

有两个角度可以解决这个问题。一个是行为角度。一个理性的主体最大化期望效用会根据可能的效用结果的景观修改其行为。一旦一个结果的效用变得足够大,那个结果就会主导计算。在这一点上,效用值的任何进一步增加从行为角度来看都是无法区分的。因此,给定一个+INF作为可能性的效用景观,存在其他具有真正大的有限奖励的效用景观生成完全相同的行为(除非概率本身被允许是无穷小的)。+INF符号通过其对算法行为的影响而重要,但除此之外,它只是一个符号,所以我们不应该在自己的价值评估中将其字面意思理解为无穷大。

第二个视角是快感的。目前还不清楚一个真正有意识的快感心智是否可以有如此简单的输入,如数字表示。人类大脑确实似乎可以通过相对简单的刺激触发快感(例如,某些药物导致多巴胺释放),但实际的快感过程可能更复杂,涉及额外的"修饰"程序。快感的数量可能以某种方式与这种修饰行为的数量成正比。我们可能会将修饰操作视为"快感工作":大脑需要很多事情来产生快感感觉,一个简单的编码这个的数字是不够的。要产生大量快感,似乎你需要进行大量的计算活动。+INF是不够的。我应该补充说,这都是非常推测性的,我欢迎基于神经科学的实际发现进行纠正。

同样,适当计算的静态数学表示并不等同于实际执行计算。当然,宇宙最终可能是一个无时间的数学结构,其中嵌入了时间操作,但这与柏拉图仅仅想象存在对应于有意识情感的计算不同,后者不算作有意识情感(除非它在柏拉图自己的大脑中物理地诱导有意识情感)。

什么是计算?

本节中的想法的更详细讨论可以在"如何将物理系统解释为心智"中找到。

在《心灵的再发现》中,John Searle声称:

我背后的墙现在正在实现Wordstar程序,因为有一些分子运动模式与Wordstar的形式结构同构。但如果墙在实现Wordstar,如果它是一堵足够大的墙,它就在实现任何程序,包括大脑中实现的任何程序。

在《好与真》第54-55页,Gary Drescher将这些称为意识的"笑话解释"。作为一个微不足道的例子,如果我们的计算机产生输出"11",这是否意味着十一(以10为基数)或二(以二进制)?或者在2位二进制补码中的-1?或者,在某种奇怪的映射方案中的-187.2634?Mark Bishop给出了另一个简单的例子(第7页),其中相同的输入-输出对可以根据解释表示AND函数或OR函数。同样,如果大脑执行某种操作,这是否对应于幸福或痛苦?可能有一些扭曲的符号解释,在这种解释下,看起来是痛苦的实际上是幸福。这在功能主义中被称为平凡性论证。物理、形式或符号操作不携带内在语义内容的想法是Searle的中文房间的主要观点,并在心灵哲学以外的领域也有相关性,如Haskell Curry的形式主义数学哲学

在"计算功能主义的兴衰"中,Oron Shagrir回顾了他所称的"实现问题"。特别是,Shagrir引用了Hilary Putnam的"表征与现实"中的证明,"每个普通的开放系统都是每个抽象有限自动机的一个实现。"Shagrir继续说:

换句话说,如果功能主义者声称,某种复杂度的功能组织足以拥有心智,那么岩石也应该被认为拥有心智。事实上,几乎所有东西,只要它实现了这个自动机,都有心智。此外,如果Putnam的定理是真的,那么我的大脑同时实现了无限多个不同的功能组织,每个组织构成一个不同的心智。因此,看来我应该同时被赋予所有可能的心智!

这值得思考。然而,这并不神秘。物理就是物理——粒子四处移动。我们如何响应特定类型的粒子运动取决于我们自己。我听说过的一个提议是关心所有物理操作,但程度不同——也就是说,与它们可以"自然地"被解释为我们关心的算法的程度成正比。这种度量不像量子力学的多世界解释(MWI)提出的物理度量那样物理;相反,它只是一种"相似程度"。由于"意识"只是指事物空间中物理操作的一个集群,我们可以决定使用模糊逻辑风格的方法,说一些事物比其他事物更接近我们所说的"有意识"。

在将物理过程解释为计算时,我们是否应该只使用最简单的解释,还是应该使用所有解释?理论上,我会关心所有解释,按其复杂性的倒数加权,但在实践中,这可能会被最简单的解释所主导。以类似的方式,字符串的算法概率理论上是所有可能产生它的程序的总和,但在实践中,这个总和由最短的程序主导(参见"离散通用先验概率")。

我们如何定义"简单"的解释?我没有深入思考这个问题,因为通常如果一个解释是牵强的,你一看就知道。当然,我们认为"简单"的东西可能反映了我们自己环境情况的特殊性。也许评估解释合理性的一个建议可以是计算

P(解释 | 算法) ∝ P(算法 | 解释) P(解释)。

这里,P(算法 | 解释)会说如果你只告诉某人解释,即正在发生的事情的"要点",写出算法会有多容易。而P(解释)会反映该解释在多元宇宙中有多常见。解释是算法空间中标记的集群,所以这个方程本质上是说,给定一个算法的集群概率与该类型算法在集群内的比例乘以集群中算法的总数成正比。

除了决定一个计算是否"有意识"之外,类似的观点也适用于确定系统展示的是哪种情绪。存在一些扭曲的符号映射,根据这种映射,看起来是痛苦的实际上是幸福,但特别是对于非平凡的计算过程,一种解释显然比另一种更自然。例如,假设你将一个使用复杂认知算法的电子游戏角色解释为在被射击时遭受痛苦或在被射击时感到快乐。但如果它被射击时感到快乐,为什么它会逃跑呢?你可以编造一些解释,比如逃跑是角色表达喜悦的方式。或者也许角色想要品味每一颗子弹,所以把它们分散开来以充分享受每一颗。它脸上痛苦的表情是它表达欣喜的外星方式。这种解释可以成立,但它比简单地解释为角色实际上不喜欢被射击要牵强得多。品味子弹的解释会有一个低的P(解释),因为在多元宇宙中,逃离奖励以品味它们的生物比试图逃离痛苦刺激的生物要少得多。此外,电子游戏角色没有任何代码会让它计算"我想逃跑以品味子弹"这样的想法。它只有让它逃跑并在受伤时降低奖励水平的代码。最后,即使角色是在逃跑以品味子弹,事实仍然是通过射击它,你会做一些它不想发生的事情;它现在不想要子弹,因为它试图把它们留到以后品味。(感谢与Saulius Šimčikas的对话激发了这段和前两段的灵感。)

前面的解释可能看起来很奇怪。"某物是否快乐怎么可能是解释的问题?!"但请记住,"幸福"本质上是一个复杂、模糊的概念,就像"自由"、"正义"或"意识"一样。"幸福"并不指某种单一、统一的属性,它以某种方式赋予某些系统。相反,不同的系统只是表现不同,我们必须选择哪些我们认为在某种程度上算作快乐。(当然,足够智能的系统的自我报告可以在这种评估中发挥重要作用。)当我快乐时,我大脑中发生的确切过程与你快乐时发生的过程并不相同,所以定义幸福的身份方法行不通。我们需要通过考虑一般类别的算法来稍微变得混乱一些,在这一点上,评估幸福需要模糊分类。即使对于相对简单的系统,我们也可能能够说某些过程看起来更像是幸福而不是痛苦——不是我们从自己的经验中知道的那种全面、深刻的幸福和痛苦(因为简单系统缺乏实现如此详细纹理的大部分神经机制),但仍然是我们可能认为是边际有价值和无价值的粗糙形式。

无限猴子定理意味着,例如,你的大脑在π的数字中某处被编码(事实上,无限多次)。如果我们可以通过某种编码将数字解释为对应于你的大脑,那么π是否包含你经历幸福和痛苦的无限多个时刻?从某种意义上说,是的,但请记住,π并不"存在于"世界上。当然,一些计算机打印出数百万位π,但可能不存在足够多的π位的物理实例,以根据某种简单、自然的编码方案包含你大脑的编码。但即使在某个地方写出了一谷歌普勒克斯位的π,我们也要决定我们要关心隐含编码的大脑多少。毕竟,它们不会随时间动态移动,而且不清楚大脑的瞬时快照有多重要。在"计算机科学家对生命、宇宙和一切的看法"中,Jürgen Schmidhuber想象了由伟大的程序员产生的大规模比特串,其中一些子集可以被解释为生命。

关于什么算作计算的话题还有更多文献,例如,David Chalmers的"关于实现计算",以及该页底部的"类似书籍和文章"。

"将物理过程解释为特定计算"不必是决定我们关心什么的基础。解释只是我们概念化和谈论一个过程以及我们对它的感受的一种方式。它类似于使用描述某些底层物理系统的词语。词语和解释可以帮助我们理解和组织我们的思想和感受,但它们并不是必需的。例如,我们可以直观地将给定的物理过程X与我们痛苦时发生的物理过程Y以及我们感到快乐时发生的物理过程Z进行比较,然后如果我们大脑中的神经网络决定相似度(X,Y)远大于相似度(X,Z),我们就将该过程视为痛苦。或者我们甚至可以通过直接对看到某个物理过程的实例做出价值或反价值评估来做出反应。我们从根本上说是将输入刺激映射到输出响应的函数,包括我们对事物的喜欢或不喜欢程度的评估。使用将计算解释为更高层次概念(如痛苦、厌恶或目标寻求)的框架可以帮助我们做出我们认为更复杂和开明的评估(而不是,比如说,看到一只苍蝇吃腐烂的动物,觉得恶心,并决定这是坏的),但当我们这样做时并没有什么神奇的事情发生。词语和解释只是我们编造的想法空间中的集群。它们可以影响我们如何思考事物(萨皮尔-沃尔夫假说并非完全错误),但我们的观点和行为也受到世界的非语言、非概念特征的影响。

功能主义适用于伦理学,而非本体论

思考同一物理过程可能有多种解释的可能性可能会令人困惑。人们可能会想:"我能感觉到我就是我自己。当然,也许我的大脑可以在某种扭曲的映射方案下被解释为执行某个不同的心智,但我主观上知道我正在经历我的经历,而不是那个。怎么可能有其他解释?才是正确的解释!"

事实上,这种直觉在很大程度上是正确的。你就是你,就是那些四处移动的物理原子。在底层,发生的一切就是物理在进行。谈论"你是谁的心智"是一种人为的讨论,是我们强加于底层现实的抽象,类似于人类在地球地图上画国界,尽管实际存在的只是地球本身。你是谁?你就是那个地方移动的原子。这是完全清楚的。我们说的其他一切都是抽象。

有些抽象比其他抽象更有用。例如,假设我想预测你会去哪里吃午餐。如果我用一个包含对Val's Vegan House的偏好的模型来模拟你这团原子,我会比用一个包含对Dan's Dogfood Store的偏好的模型获得更好的预测。当然,有一些扭曲的解释,根据这些解释,你的大脑正在实现你狗的心智的算法,但这些对准确预测帮助不大。这是一些解释心智比其他解释更"自然"并具有更高"度量"的一个意义:使用它们可以做出更好的预测。

抽象的另一个用途是定义你的"自我身份"。有一些解释,根据这些解释,你正在运行乔治·华盛顿的思想和感受,但你可能更愿意根据对你是谁的更常识性的看法来创建你的自我身份。

抽象的最后一个用途是伦理:我关心这个东西吗,如果是,关心多少?如果你对某物的伦理关注至少部分基于它实现的算法,那么你就进入了决定给定物理过程在多大程度上实例化你关心的算法的业务。你必须决定解释权重,尽管在实践中,对于任何非平凡系统,通常很明显哪个算法是主导解释。

因此,功能主义——在物理操作中看到心理算法——对抽象事物很有用,比如预测和决定我们关心多少。它并不指代基本现实中"外部"的东西。

"但是,"有人可能会说,"作为我感觉像是某种东西。我的墙也感觉像是某种东西吗?要么是,要么不是。我真的想知道我的墙是否是有意识体验的主体!"这个问题是混乱的。你的墙就是它本来的样子——一堆原子。墙是否"感觉像"某种东西是一个抽象的问题,属于表征和模型的领域,而不是基本现实。我的回答是,墙只有极其微弱的解释可以进行更高层次的心理操作,所以基本上作为墙并不感觉像什么(尽管这个答案肯定会根据科学的进一步发现而修改)。你可以选择不同的答案,如果你愿意的话。

"但我确定作为我感觉像是某种东西,"有人可能会回答。"这怎么可能是解释的问题?"好吧,看看你厨房里那个有腿支撑食物盘子的木头东西。我确定那是一张桌子。我怎么可能错呢?这怎么可能是解释的问题?然而,"桌子"不是宇宙的本体原语;它是我们强加于底层现实的抽象。意识的感觉也是如此。

请注意,当我说"感觉的感觉是一种抽象"时,这不仅仅意味着一种口头的、智力的抽象。更根本地说,这是我们的大脑即使在我们不努力的情况下也会产生的抽象。我们的大脑包含自身的表征——自己的思想、情感和经验。思考作为有意识的原始感觉似乎如此基本,因为我们的大脑不断为我们生成那种抽象。同样,我们感觉屏幕上的图像显然是一张脸,尽管它实际上只是一堆像素,而这些像素实际上只是我们电脑屏幕发出的一堆光子。图像,以及我们对情绪感觉如何的感觉,是统一的体验,因为有意识大脑的一个功能是将不同的特征统一成更大的、概念性的、整体性的表征。我们的大脑是抽象生成器。

值得注意的是,心灵哲学中的功能主义与科学哲学中的结构主义有表面上的相似之处:两种观点都断言关系才是重要的,而不是关系项。然而,功能主义并不等同于结构主义,因为(本体)结构实在论是关于本体论的陈述,因此必须指基本物理学,而不是像意识这样的高层过程。功能主义在我看来是一个伦理/概念陈述,关于我们如何想要思考从基本物理学中涌现的高层过程。作为一个例子来说明区别,功能主义建议,无论计算机程序是使用32位还是64位计算机实现,只要它执行相同的功能操作,都不应该影响我们是否称它为有意识。但我们可以看到,这两种情况下的物理操作是不同的,因此移动的底层本体结构也是不同的。

反事实稳健性

构成心智的粒子运动的反事实稳健性有多重要?例如,假设一些灰尘粒子纯粹偶然地被吹成一种配置,在转瞬即逝的一秒钟内模仿了有意识大脑的神经元发射?我们可能会说,因为粒子做了正确的移动,它们算作有意识。另一方面,我们可能会觉得它们构成的大脑并不"真实",因为如果反事实地将大脑置于稍微不同的条件下,它的类脑行为就会崩溃。

David Chalmers和其他哲学家认为反事实很重要,即使这些可能性分支从未执行。通常这是为了避免将任何随机发生序列笑话性地解释为与有意识心智中执行的特定大脑状态序列同构。我认为可以使用前一节中描述的加权来对笑话解释施加相同的惩罚,其中解释按照它们如何简单自然地映射到物理过程来加权,尽管反事实当然可能在这个判断中发挥作用。

我个人认为玻尔兹曼大脑在伦理上很重要。好消息是,相对于正常心智,这些可能极其罕见

意识的改良图灵测试

我们是否想称一个心智为"有意识"从根本上说是我们内心需要决定的问题。话虽如此,我们可以制定一些标准来帮助我们,特别是当我们的直觉不足时。

一个可以借鉴的地方是智力评估,这与意识不同但相关。图灵测试是一个标准提议,用于确定计算机是否具有人类水平的智能。在这个测试中,一个人和一台计算机都与一个审问者交流,如果审问者无法分辨哪些回应来自人类,哪些来自计算机,那么计算机就通过了测试。通过远程文字聊天可以屏蔽掉无关的特征,如外表。

作为评估意识的标准,图灵测试在巨大查找表的例子上失败了,巨大查找表可以完美地假装是人类,而不需要做任何有意义的计算,只需检索存储的问题答案。直觉上,使巨大查找表不成为人类大脑的好"模型"的原因是它过度拟合。该模型由于内置了所有答案而具有巨大的复杂性,而好的模型通常具有简单的结构,让计算产生输出。

合理的科学模型往往具有低"消息长度",即描述模型本身加上模型预测与实际数据之间的误差所需的位数很少。巨大查找表具有巨大的消息长度,因为它编码了所有可能问题的所有可能答案,没有预测性计算算法。作为大脑工作原理的科学描述,巨大查找表是一个糟糕的假设,即使它可以非常接近地拟合观察到的数据。

类似的想法可以应用于我们对意识的感受。直觉上,最有可能有意识的数字大脑是对动物大脑实际工作方式的最佳科学假设。在图灵测试本身中,这些评估仅通过交流互动进行。扩展的图灵测试可能还会考虑解剖学上的相似性,但可以说心智的行为和个性特征在道德上是最重要的部分,而大脑的解剖结构可能主要是无关紧要的。在这种情况下,一个基于(仅)心理学(而非神经学)数据对实际大脑具有低消息长度的意识图灵测试可能是一个不错的测试。当然,这只适用于现有的动物(特别是有语言的现有人类),但它给了我们一个起点。一旦我们通过这种科学方法对大脑的运作有了更抽象的理解,我们就可以推广并决定当其他事物具有其中一些但不是全部特征时,我们想在多大程度上称它们为有意识。

我并不是将改良的图灵测试作为绝对标准提出,但它可以成为塑造我们直觉的一个很好的启发式方法:一个更好地科学模拟实际大脑的大脑更有可能是有意识的。显然,这只是一个充分性测试:如果一台计算机通过了这个测试,那么它很可能是有意识的,但并不是说如果它有意识,它就必须通过这个测试。

意识测试中的坎贝尔定律

我之前提出,镜子测试可能是现今动物意识的一个大致充分条件(尽管可能不是必要条件)。即使这是真的,该测试也不是一般心智意识的充分条件,因为建造一个通过镜子测试的机器人相对容易,只需知道游戏规则即可。只需设置机器人看镜子,运行分类器看图像是否匹配其"脸"的已知模型,如果是,输出一个机器人声明:"我看到了自己。"或者更简单地说,机器人可以执行特定的动作并检查它是否在镜子中看到了相同的动作。我不认为这样的机器人是有意识的。

这里发生的事情类似于坎贝尔定律:一旦我们有了一个简单、具体的意识测试,那个测试就可以被设计来游戏系统的非意识计算机轻易通过。

另一个例子是,一些作者指出对群体中自己位置的社会意识是意识的一个重要指标和可能的起源,但同样,实现这一点的简单版本很容易——不仅是以机器人形式,甚至是在简单的Python程序中。一个非常简单的版本可能涉及一系列对象检查它们自己与其他对象之间的相等性。如果它们使用比较函数,它们可以被视为实现了"对社会等级的理解"。当然,这与我们实际所说的社会意识相去甚远,但它强调了我们通过某些标准评估什么是和什么不是有意识时坎贝尔定律的感染性。

我认为上面提出的改良图灵测试即使面对坎贝尔定律也相当稳健,但这部分是由于其复杂性;它不是一个容易验证的东西,因为它需要通过大量的对话交互来建立大脑的科学模型。即使这个测试可能也有一些(不那么明显的)盲点,无法作为一个指标使用。也许它忽视了我们想要考虑为有意识心智的一些关键组成部分。

解决坎贝尔定律的通常方法是采用从不同角度攻击问题的多个指标。我们可以通过检查生物体大脑和行为的许多组成部分来做到这一点:社会意识、镜子测试、对伤害的反应、对情况的类似情绪的反应、"个性"和其他民间心理学特征的存在等。在"用于实验和其他科学目的的动物的生物学和福利方面"的第13-14页,结论1和2列出了科学家用来评估动物感知能力的一些措施。也许这个列表包含一些不必要的特征并忽略了其他重要的特征,但这些类型的特征可以作为克服坎贝尔定律的基本指标。如果一个人工心智在所有这些特征上得分都很高,那么我更倾向于称它为有意识和有感知能力。

我曾经否定"如果我们只是给我们的人工智能添加足够多的部分,最终它们就会变得有意识"的建议。我认为这是一种肤浅的模式匹配,就像认为如果你把羽毛和喙贴在盒子上,它就会变成一只鸟一样。但现在我看到了这个建议中一种复杂的智慧。显然,有许多算法与意识无关。有许多算法可能从外部看起来是有意识的,但内部并不是有意识的。话虽如此,正如我们在上面看到的坎贝尔定律以及根据我从神经科学中所能看出的,可能没有一个单一的、简单的操作可以实例化意识,而其他一切都不是有意识的。相反,意识可能是许多组成部分一起工作的结果。意识可能像交响乐团,而不是单一的乐器。有许多东西不是管弦乐队,但也确实有很大的灵活性,你可以用许多方式混合搭配许多乐器,它仍然是一个管弦乐队。

所以可能没有一个"简单"的方法来决定一个数字大脑是否有意识。我们需要做艰苦的工作,构建对我们来说似乎重要的措施,并编译足够多的措施,以至于我们不觉得我们遗漏了太多重要的组成部分。这也表明我们是否将某物视为有意识不需要是二元的:如果某物具有许多但不是全部特征,我们是否会认为它部分有意识?另一方面,我们在自己身上看到的有意识(例如,你现在)和无意识(例如,你在全身麻醉下)之间的区别似乎是相当二元的。我不愿意说在全身麻醉下的人仍然"部分有意识",因为她在那种状态下仍然表现出意识的许多重要组成部分。但这种看似二元性是否是一种错觉,因为被阻断的疼痛处理部分只是最高层次的部分,可以将体验言语化和记忆,而较低层次仍然处于剧烈痛苦中?

不幸的是,当涉及到其他动物,特别是人工心智时,我们可能无法使用区分人类意识的任何狭窄的大脑测量。我们可以在鱼类、龙虾和章鱼的视觉中看到这方面的一个例子:"鱼类、龙虾和章鱼都有视觉,尽管它们缺乏允许人类看到的视觉皮层,"Elwood说(来自Jennifer Viegas的"研究表明龙虾和螃蟹能感受疼痛")。D. M. Broom,"认知能力和感知:应该保护哪些水生动物?"(第100页):

尽管一些哺乳动物在大脑皮层有高水平的分析功能,但在鸟类的纹状体和鱼类及头足类动物的各种大脑区域中也发生了类似的高水平分析。

对于任意心智,我们需要推广并依赖多个指标,这确实似乎为意识的灰色地带打开了可能性。

这种推理方式需要注意一点:很容易识别出许多与我们今天知道的动物中的意识相关的措施。在现有生物学中优化这些东西可能相对安全。然而,除非这些措施代表对我们来说本质上重要的东西,否则当我们将这些措施应用于任意心智时,水域就变得危险了。虽然可能没有一个单一的、简单的操作完全概括了有意识的情感,但也可能许多认知操作对意识并不是根本的。

一个与意识强烈相关的措施的例子是认知智力。当然,一些智力对于有意识的情感是必要的,以便对你的感受有基本的认识,但你不一定需要能够解决难题、长时间记忆事物、能够做出理性决定等。在动物中,适应性/灵活行为与意识相关,因为使复杂决策成为可能是意识的目的之一,但这并不意味着对于任意人工心智,这种关系仍然需要成立。在我们需要避免意识可以由特定狭窄算法定义的错觉的同时,我们也应该避免任何让我们想起人类所做事情的认知过程都是意识重要组成部分的谬误。

分级意识和价值多元主义

我们已经看到,意识,即使在非混淆的"我关心的计算"意义上,也不是二元或精确的。没有一个单一的点"灯亮了",而之前一切都是黑暗的。有一些相当具体的界限划分,比如说,一个生物是否能够用语言表达其情绪状态,但这些界限不能成为我们所说的意识的完全通用定义,因为存在满足这些标准的物理过程的笑话实例。(在一个生物用语言表达其情绪状态的情况下,例如,考虑一个录音机,当它播放欢快的音乐时说"我很高兴",当它播放哀伤的音乐时说"我很悲伤"。)

所以我们需要多个指标来捕捉我们所重视的东西,事实上,这些方面中的每一个可能都是其自身的价值来源。如果你拿走人类大脑的一个单一能力——比如说语言能力——你并不会因此消除心智的所有道德价值。然而,我们可以继续剥离一个看似不重要的能力接着另一个,直到最终我们到达一个几乎完全不重要的东西,比如一块石头。假设没有一个关键步骤在道德上"熄灯"(根据我所能看出的,似乎没有),那么我们对人类大脑的高度重视必须是许多较小价值组成部分的组合。它们可能相互作用;我们不需要独立地重视每一部分。但似乎我们确实需要意识价值的许多焦点,每个焦点都为给定计算的道德重要性的分级性质做出贡献。

我们可以把这些看作是,用Carl Shulman的话说,"铃铛和口哨",它们被添加到基本算法(强化学习、网络信号广播、反馈循环等)中,使这些算法更生动地令人信服,成为我们觉得值得同情的另一个心智。当我们从人类身上剥离铃铛和口哨时,价值下降,但不会降到零。因此,像昆虫是否有意识这样的问题最终可能不是"是"或"否",而是类似于"它们具有我们认为在道德上重要的一些特征,尽管可能程度较低,所以我们可能会比人类稍微少一些地重视它们。"从某种意义上说,这正是物种主义者一直声称的:动物不那么重要,因为它们比人类少了一些铃铛和口哨。我会回应说,注意到

  1. 我自己对心智的道德价值感觉的下降比物种主义者声称的要缓慢得多——例如,只是随意编造数字,也许一只狗在人类的2倍范围内,一只鸡在4倍范围内,一只昆虫在150倍范围内。
  2. 这种区分不是基于物种的任意区分,因为它是基于生物体的大脑,而不是生物体的物种本身。所以,例如,一个人的实际内在价值可能与另一个人不同,这取决于情感体验的深度等。话虽如此,我们(可能正确地)避免做出这些声明,因为(a)差异可能非常小(也许不到5-10%??),(b)我们无论如何也无法轻易评估它们,以及(c)做这种比较会创造一种有辱人格的文化体验,特别是对那些被认为"价值较低"的人。即使对于动物,我们也可能希望假装它们的价值与人类相等,哪怕只是为了平衡社会大多数人给予(非伴侣)动物基本上没有道德价值的倾向。

Daniel Dennett很好地解释了这种将感知能力视为分级的想法:

认为意识是全有或全无是一个大错误。我不认为我们对意识的日常理解能承受那种重量。[...]像Nagel和Searle这样的人不得不认真对待的问题我不会。他们想知道在存在的伟大链条中意识从哪里开始?蛤蜊有意识吗?鱼有意识吗?脊椎动物有意识吗?章鱼有意识吗?我认为这些只是表述不当的问题。让我们谈谈它们在每种情况下能做什么,它们的动机系统是什么,它们有什么情感可能性。当我们把这一切都理清楚时,我认为不会发生的是,我们看到从逐渐的迷雾中在任何点上出现一条清晰的线。

以及他的《意识解释》(第447页):

我们已经努力摆脱[...]这样的假设:意识是一种特殊的全有或全无属性,它将宇宙分成两个截然不同的类别:拥有它的东西[...]和缺乏它的东西。即使在我们自己的情况下,我们也无法划分出分隔我们有意识的心理状态和无意识心理状态的界限。我们勾勒出的意识理论允许许多功能架构的变体[...]。

这种"分级感知能力"的方法非但没有将人类置于价值的顶峰,实际上可能会使我们谦卑,这取决于我们决定将我们在非人类算法中看到的道德价值延伸多远。如果我们采取高度狭隘的观点,我们可以说大脑需要具有所有或大多数标准人类大脑算法,以非常类似于我们在人类大脑中看到的方式一起运作,否则它就不算有价值。一个更具世界主义的观点可能会在其他地方看到与人类类型算法的相似之处——最明显的是动物大脑和类人计算机模拟,但也许甚至在更抽象的算法中(例如,强化学习、网络通信或其他类似于使人类大脑"体验有意识情感"的部分过程)也能看到一定程度的相似之处。狭隘和世界主义的观点不是二元的,而是代表了一个连续体上的方向,即在多大程度上重视那些越来越抽象于人类大脑的东西。

我们应该记住,更具世界主义并不总是更好。我不想开始担心溪流中的水流,除非有人向我展示水分子运动涉及的特定方式类似于我知道我关心的东西。然而,我可能会对,比如说,大量类似于痛苦的强化学习算法感到至少一点点担忧,即使它们以非常抽象的方式运行。这种担忧程度很低但不为零。我可能以后会改变主意,决定没有其他伴随的铃铛和口哨的强化学习对我来说根本不重要。请记住,我们只有固定的关心预算,所以更多地关心抽象算法意味着更少地关心,比如说,真实动物被活活吃掉。我们必须认真对待我们对各种意识操作的关心之间的权衡,而不是仅仅采取一种感觉良好的态度,比如"让我们关心一切!"

也值得记住的是,以我们目前的知识状态,我们并不总是知道各种生物中存在哪些类型的算法/能力,也不知道表面上的铃铛和口哨实际上在多大程度上是系统架构的关键。因此,我们对感知能力的评估不仅仅是主观的,还取决于经验知识。

意识分歧是强调的差异

人们对哪些心智是有意识的评估差异很大。似乎每个人都有自己的意识宠物理论以及这意味着哪些实体具有道德意义。人们然后争论哪种意识理论是正确的。

这种辩论的框架是错误的。心智有许多属性和能力可以考虑重要,关于给定心智是否有意识的争论反映了讨论中不同人对哪些类型的心理功能最重要的不同优先级。"意识"不是一件单一的事情;它是许多人以许多方式使用的一个词,实际上争论的问题是哪些特征比其他特征更重要。正如Marvin Minsky所说:

有一个中心的"我"拥有体验的想法,我认为这是一个典型的案例,即采用一个常识概念而没有意识到它没有好的技术对应物,但它有20或30个不同的含义,你在不知不觉中从一个切换到另一个,所以它看起来像是一件事。

这种情况类似于道德辩论,不同方面声称他们有正确的"道德"定义,而实际上,每一方只是鼓励更多地强调它认为重要的道德价值。

Aaron Sloman和Ron Chrisley呼应这一点:

'意识'是一个集群概念,因为它指的是一系列松散相关且定义不明确的现象。[...]集群概念是一种以不确定的方式用来指代一系列特征或能力的不明确子集的概念。一些特征组合被视为肯定证明应用该概念,而其他组合肯定不能证明应用它,而对于一些中间组合,某物是否是一个实例的问题是不确定的。人们可能会不同意,同一个人可能会发现在这些情况下应用该概念有冲突的理由。因此,大多数人会同意人类有情感而病毒没有,但可能会不同意昆虫、鱼类或未出生的人类婴儿是否有情感。这不是一个经验性的分歧,因为他们无法就什么样的新证据会解决这个问题达成一致。

以下是不同人可能认为对意识至关重要的特征的一个非常不完整的列表。我听说过大多数这些被某人或其他人辩护过。

像Eliezer Yudkowsky这样坚持认为,比如说,青蛙没有意识,因为它们(据称)缺乏高层次的反思性自我模型的人是正确的,青蛙的体验不像我们的,因为青蛙缺乏我们拥有的一些能力。但得出结论说具有更受限的与处理痛苦相关的心理能力的心智根本不重要是一个错误。

我预计,随着人工智能的进步,以及我们能够看到更多不同方式构建心智的可能性,每种心智都有不同的能力、倾向、优点和缺点,将意识视为二元的观点将受到挑战。(请注意,推进人工智能,特别是人工感知能力的速度可能会增加痛苦,所以这个预测不应该被解释为一个处方。)将变得更加明显的是,存在一个大的多维心智特征空间,这些特征不是在有意识和无意识之间划分明显界限,而只是彼此不同。作为一个类比,一个完全在基督教社区长大的人可能会认为宗教是一维的:要么你是基督徒,要么你是无神论者。但实际上存在着更广泛的宗教数组,它们与基督教共享一些特征,而不共享其他特征。

为什么铃铛和口哨很重要

铃铛和口哨是对算法过程的花哨补充,使其更复杂,但从根本上讲并不与同一想法的更简单轮廓不同。为什么这些在道德上应该相关?可能不是与意识有关的某个基本过程无论其复杂性如何都很重要吗?我们对这个问题的回答最终是一个直觉问题,但让我给出两个简单的例子来激发复杂性可能相关的直觉。

"自反思"决策者

也许意识和主体道德价值的关键特征是自我反思。毕竟,我内省似乎关心的是我观察自己情绪的体验。如果我没有注意到我的情绪,它们似乎对我来说并不重要。如果我们将对自己情绪状态的自我反思意识指定为道德价值的关键决定标准会怎样?

问题是,像任何其他简单的道德价值定义一样,我们可以相当容易地想出显示这种属性的过程的微不足道的版本。例如,假设我们在编程语言中有一个对象。在执行我们的代码时,我们到达以下语句,其中"self"指的是对象的当前实例:

if(self.mood == "happy") { self.actionToTake = "smile"; }
else if (self.mood == "sad") { self.actionToTake = "cry"; }

我们的对象正在对自己的感受进行"自我反思",以决定它应该如何行为。然而,很明显,这个操作与一个人在反思内部状态变量后感到快乐或悲伤没有相同的道德重要性。区别在于人类中发生的所有其他额外的事情,这些事情共同创造了一个我们认为在伦理上更重要的统一整体。

当然,这只是我的直觉,认为人类的自我反思比这段代码所做的更有价值;其他人可以自由地不同意。如果你坚持一个非常简单的道德价值标准,请确保注意物理学中许多、许多可以看到这种类型操作发生的实例。self.mood的命名对我们人类的语言中心很有启发性,唤起了远远超出这个过程中实际展示的直觉结构。这里实际发生的只是基于某物的某个属性在两个结果之间做出决定。但我们可以在甚至是无生命的环境中经常看到这一点,例如:

"自建模"主体

也许自我反思是一个过于简单的属性来划分意识。也许你不仅要观察自己的一个属性,还要实际模拟你可能采取的行动的可能结果。也许这是一个更复杂的属性,捕捉了为什么有意识的存在在道德上很重要?

考虑一个已经训练了其Q(s,a)值作为状态s和可能行动a的函数的Q-learning主体。为了选择下一个行动,假设它非常简单,只是选择给定其当前状态(比如说,状态编号3)使Q(s,a)最大化的a:

currState = 3;
double bestQ = -1;
int bestAction = -1;
for(int action = 0; action < possibleActions.Length; action++)
{
     double curQ = Q[currState, action];
     if(curQ > bestQ)
     {
          bestQ = curQ;
          bestAction = action;
     }
}
takeAction(bestAction);

到目前为止,我们可能会称这是一个"愚蠢"的主体,它只是"无意识地"根据学习到的价值估计选择行动。相反,有意识的主体运行自我模拟来预测如果他们做出选择会发生什么。这就是意识,对吧?好吧,考虑上面的这个小修改:

currState = 3;
double bestQ = -1;
int bestAction = -1;
for(int action = 0; action < possibleActions.Length; action++)
{
    double curQ = ImagineTakingAction(currState, action, Q);
    if(curQ > bestQ)
    {
        bestQ = curQ;
        bestAction = action;
    }
}
takeAction(bestAction);

// ... 跳过一些行 ...
public double ImagineTakingAction(int state, int action, double[,] Qvalues) {     int world = state;     int myAction = action;     double predictedOutcome = Qvalues[world, myAction];     return predictedOutcome; }

当然,ImagineTakingAction函数完全是微不足道的。它只是使用语言伪装来使返回当前正在评估的动作的Q(s,a)值的操作更具启发性。第一个和第二个代码片段之间真的有区别吗?可能没有太大区别。"想象做某事会是什么样子"的含义本身就是一类模糊的操作,就像感知能力一般一样,我们可能会更倾向于认为这个过程在道德上相关,如果执行它的主体更复杂的话。

"小网络论证"

2007年的论文"意识与小网络论证"证明,许多科学意识理论允许构建一个微小的有意识大脑——通常少于10个神经元。作者认为这是荒谬的,并建议意识必须涉及比简单原则更多的东西。该论文将意识视为一个二元和客观的属性,这暴露了隐含的二元论,但我们可以很容易地重新表述该论文的观点,认为当前的意识理论允许构建微小的大脑,这些大脑没有我们认为的意识的高度,就像我在前两个例子中展示的那样。

心理学解释

作为人类关心铃铛和口哨的描述性解释,一个原因可能是我们最能同情与我们一样复杂的心智。当我只是作为程序员看上面的代码片段时,它们看起来完全平淡无奇。如果我想象自己是执行这些操作的对象,我可以唤起对主体的一些实际同情。但这几乎完全是由于通过拟人化偷偷带入我所有的心理学而产生的不合法同情。它包括将自己想象成计算环境中的主体,用内心独白思考这些各种行动,希望事情会如何发展。几乎所有这些都是额外的复杂性,我的心智忍不住强加于情况。这在某种意义上强化了人类关心复杂性的观点。

当然,我们关心函数相对于复杂性的形状仍然有待讨论。也许它在某个点下降?也许一旦一个主体足够复杂,我们就开始平等对待它和其他可能稍微更复杂的主体?这些是我们内心需要解决的棘手问题。无论如何,这个讨论表明,即使对于那些只关心有意识情感的人来说,我们重视的东西也很难具体说明,可能无法用一两个基本属性来捕捉。

是什么激发了对抽象计算的关注?

大多数人类动机是自我导向的——关注个人维护、安全和福祉。有时也会有其他导向的关注动机:

与多种其他导向关注动机一致的是一项发现,人类至少有两种不同的同理心系统:一种情感的和一种认知的。情感系统可能更多与镜像神经元的错误触发有关。

无论起源如何,对无能为力者的利他主义似乎是一个副产品。从生存角度来看,只关心你的家人、你的部落和你的交易伙伴似乎接近最优;如果你也关心地球另一端正在死于疟疾的人或生病的鱼苗,那会占用你本可以用于自我提升的资源。纯粹同理心的副产品随着时间的推移可能会消失并非不合理,也许当出现能够消除其副产品同理心同时保留并加强其与交易伙伴做出有约束力承诺的能力的人工心智时。

思考是什么激发了本文讨论的利他主义是很有趣的。为什么一个灵长类动物会思考发生在自己大脑中的事情与可以编程到计算机软件中的事情之间的相似性,并决定它也关心计算机软件?哪些同理心机制在起作用?这可能是上述几种机制的结合。例如,这个过程部分是关于评估"像我"的关系:这个其他心智与我有多相似?这可能唤起类似于亲属利他主义或与交易伙伴的互惠利他主义的关注。还有一个"想象"自己是另一个生物的元素,这导致我感受到那个生物自己情绪的影子,类似于镜像神经元的错误触发。然后还有一些系统化和寻求优雅的过程。对于一个伦理立场来说,在没有相应的心理系统特征的巨大差异的情况下,对某些心理系统进行实质性的不同对待似乎是不对的。

天真地说,许多人假设如果大脑只是计算机,情绪只是信息处理,那么我们就不再关心它们了;毕竟,谁会关心一台计算机呢?但我不知道有谁因为学习认知科学而停止享受阳光或锻炼。当我们开始内化大脑中的计算是如何工作的,并类比到人工算法时,我们不仅继续关心自己,而且将这种关心扩展到更广泛的物理操作类别,我们可以说,"那有点像我。"

"意识"探测器

我们的大脑似乎有许多神经网络,将输入刺激转换为输出"分数"——例如,那个物体看起来有多像一张脸?,那个食物有多美味?,那个潜在伴侣有多吸引人?,草丛中的那个东西有多像蛇?对于许多概念,我们做出"相似性"判断;例如,人们放食物的这块石头在多大程度上算是一张桌子?我们关于一个实体是否有意识并值得道德考虑的判断是同样过程的另一个例子。

首先我们感知一个实体的原始输入特征:它的颜色、形状、质地、排列等。这些输入到各种层次的视觉处理中。我们还听到它的哭声和笑声,也许感受它的皮肤。感官输入被聚合到我们神经网络的越来越高的层次中,将它们从原始特征转换为更高级的概念。当前实体的特征与我们对这些实体的先验知识以及我们对它们运行什么样的算法的认知理解、社会对它们的态度等合并。在这个深度网络的更高层,也许(纯粹是推测性的)我们有代表"有脸"、"在笑"、"想拿起玩具"、"是我部落的成员"等的神经信号。关心网络的最后一层可能是,在这个风格化的描述中,这些高层输入节点之上的线性模型。例如:

意识分数 = 2 * 是人类 + 0.7 * 有眼睛 + 0.5 * 能尖叫 + 1.5 * 有欲望 + 1 * 有智力 + 0.3 * 做强化学习 + ...

(我不是在为这个特定的权重选择辩护——只是将其描绘为一个人可能拥有的可能权重集。)我们在这篇文章中讨论的是这个模型的哪些输入是相关的,它们的权重应该是多少。

记住为什么它很重要

这些关于心智算法的讨论可能感觉抽象和遥远。我们可能会倾向于纯粹出于审美理由做出道德重要性的评估,甚至可能对其他人经历什么的问题不感到太多动力。重要的是不要让这种情况发生,或者至少要用更具有直观吸引力的提醒来补充这些抽象思考的时期,提醒痛苦可能有多糟糕

探索这些抽象的原因不是(仅仅)因为思考它们很有趣。相反,是因为可能有我们以前没有意识到正在遭受可怕痛苦的心智。系统化我们的同情心对那些我们本来会忽视的人很重要。我们只需要确保在这个过程中不变得冷漠。

对模糊性的容忍

回到2005-2006年,我认为伦理学相对简单。幸福是好的,痛苦是坏的,你最大化总和。(这是在我把减少痛苦的优先级大大提高到创造幸福之上之前。)当然,人们会反对你无法衡量幸福和痛苦,但我认为这主要是我们工具的局限性,我们可以非常接近。当人们提出其他关于伦理学中价值的定性想法时,我会对自己说,"不,你把这个弄得太复杂了。只有幸福和痛苦才重要,你只是假设这些其他东西重要是因为它们让你快乐。"我对我的伦理学方法相当教条。

也许比其他任何事情更重要的是,消除我对意识的困惑并努力解决我关心哪些计算的问题改变了这种简单化的态度。我现在意识到,即使你只关心幸福和痛苦,仍然会有一系列定性的、模糊的和诗意的问题需要回答,比如大脑的哪些部分算多少、大脑大小的相关性、意识的重要程度以及什么应该算作意识、算法实现可以有多抽象vs具体等等。这些问题听起来就像其他伦理学领域中我以前认为可以通过我特定的道德框架轻易解决的许多辩论一样开放、哲学和有待解释。伦理学再次变得复杂和感性——再次像一门人文课程而不是经济学课程。

我希望这篇文章传达了前面的情感,并鼓励对彼此的伦理观点有更大的容忍度,因为这些问题不是非黑即白的。

致谢

我非常感谢Carl Shulman完善了我对意识的理解,并帮助我探索了上面讨论的许多问题。我对主观不可区分性标准的灵感来自与Jonathan Lee的讨论,他还对这篇文章的草稿提供了反馈。Max Maxwell Brian Carpendale关于表现民间心理学的计算的评论启发了我的改良图灵测试。许多其他朋友也为我对这些问题的思考做出了贡献。我在这篇文章中讨论的一些内容可能是从其他作者那里借鉴的,但除了通过超链接引用的内容外,我不知道确切的来源;这些概念中的许多只是科幻和超人类主义社区中的"传说"。

脚注

  1. 好吧,神经胶质细胞和其他非神经元物理因素可能也很重要。让我们假设这些也被适当的人工替代品所替代。  (返回)
  2. 事实上,不确定性原理意味着这是不可能的。为了避免这个复杂性,我们可以要么使被描述的对象足够宏观以至于量子效应变得不重要,要么如果这掩盖了大脑处理的重要特征,那么考虑所涉及的一切的完整量子级波函数描述,同样存储在一些软件数据结构中作为数字列表。计算更新会更加计算密集,但这不影响思想实验的哲学原则。  (返回)