为什么自由意志不是一种"幻觉"

作者:Brian Tomasik

首次发布:。最后重大更新:

摘要

一些评论者断言物理学和神经科学证明我们没有自由意志。我认为这些说法是误导性的,因为它们没有解决我们对自由意志本质的根本困惑。我采取相容论的观点,认为人类(以及其他决策者,包括动物和机器人,程度不同)尽管以机械和决定论的方式运作,但仍然拥有自由意志。最终,我们在各种情况下对自由意志采取的立场应该由工具性考虑驱动,即这种立场将如何影响结果;我们进化形成的直觉可能会也可能不会给出最有帮助的判断。

目录

免责声明和致谢

我没有深入研究过自由意志的文献,所以这篇文章主要是从常识的角度写的。我猜想我在这里说的大部分或全部内容都已经被以前的作者解释过了。在一个出色的15分钟演讲"比自由意志更好的选择"中,Darren McKee提出了与本文类似的观点。

我第一次了解决定论和自由意志的辩论是在2003年,当时我11年级的英语课学习哲学,阅读了俄狄浦斯王麦克白鲁拜集。几年后,我进一步探讨了这个问题,2007年我写了一篇文章(现在我意识到那是混乱的),其中我认为我们应该假设我们有自由意志主义的自由意志——即使我们根据我们所知的科学认为这不太可能——因为如果我们没有自由意志,那么我们就没有自由意志主义的自由控制我们的行为。换句话说,我们应该试图相信我们有自由意志主义的自由意志,因为只有在我们确实拥有它的情况下,我们试图相信我们拥有它的自由意志主义的尝试才会成功。

2008年夏天,我读了Eliezer Yudkowsky在Overcoming Bias博客上关于自由意志的讨论;内容现在位于LessWrong上。我试图将我现有的、混乱的框架应用于Yudkowsky的论点,但最终我发现我说不通。相反,Yudkowsky的方法确实说得通。回顾过去,这个问题现在似乎很明显,也许就像六年级的数学现在对你来说很明显,但当你第一次学习时并不明显。

引言

"用地球的第一块泥土,他们塑造了最后一个人,
然后播下了最后一次收获的种子:
是的,创世的第一个早晨写下了
最后审判的黎明将要读到的内容。"
--鲁拜集,第53节

我们经常听到这样的说法:"宇宙是决定论的,所以我们没有自由意志",或者"神经科学证明自由意志是一种幻觉"。我认为这些说法并不完全正确。它们背后有一些真实的东西,但真正的问题是,人们对"自由意志"是什么的流行概念是没有意义的。所以简单地说"人们没有自由意志"会给人一种错误的印象。作为类比,我认为强烈的道德实在论几乎肯定是错误的,但说"杀人不是错的,因为道德不存在"会产生误导和破坏性。

自由意志不是一种幻觉,就像意识不是一种幻觉,道德也不是一种幻觉。只是这些东西不是我们大多数人天真地认为的那样。

"自由意志"应该意味着什么?

当人们说他们有自由意志时,他们指的是什么?这并不完全清楚,但通常这种说法被认为暗示了以下想法:

让我们记住这些,当我们接下来转向一个假设的机器人,名叫威利。

机器人威利

威利是一个机器人,他的爱好库包括:{greet_experimenter, feed_bunny, break_cookie_jar}。威利被编程为选择给出最高预期奖励的行动,其中预期奖励计算如下:

expected_reward = random(0,1) * expected_experimenter_greetings + random(0,1) * expected_bunny_smiles + random(0,1) * expected_smashing_noise.

这里random(A,B)意味着从区间[A,B]均匀抽取一个伪随机浮点数。伪随机数是完全确定性的,如果我们将伪随机数生成器设置在特定的种子上,我们可以一遍又一遍地生成完全相同的伪随机数集。同时,对外部观察者来说,伪随机数是不可预测的。威利的奖励函数中使用的伪随机数近似了影响人类选择的环境变异、情绪波动和其他看似随机的因素。

第1天

在第1天,威利的CPU选择了一些伪随机数,最终得到这个奖励函数:

expected_rewardday1 = 0.8 * expected_experimenter_greetings + 0.5 * expected_bunny_smiles + 0.2 * expected_smashing_noise.

根据他的概率计算,威利认为

现在他计算:

greet_experimenter行动的预期奖励最高,所以威利选择了这个。正如他预测的那样,实验者准确地回应了他一次。

第2天

现在是第2天。威利重新计算了他的随机权重系数,他对行动结果的预期也可能根据他自昨天以来学到的东西略有更新。在第2天:

expected_rewardday2 = 0.1 * expected_experimenter_greetings + 0.5 * expected_bunny_smiles + 0.9 * expected_smashing_noise.

威利重新计算了每个可能选项的预期奖励。这次他发现expected_rewardday 2(break_cookie_jar)最高,所以他打碎了饼干罐。

实验者看到这一幕非常生气:"威利,你这个坏机器人!停下来!"然而,威利的奖励函数中没有重视或贬低被吼叫的项,所以威利的行为没有改变。

第5天

在第5天,在第4天又一次打碎饼干罐后,实验者意识到她忘了给威利编程贬低被责骂的功能。她重写了他的奖励函数如下:

expected_rewardday5 = random(0,1) * expected_experimenter_greetings + random(0,1) * expected_bunny_smiles + random(0,1) * expected_smashing_noise - random(10,15) * expected_experimenter_scolding.

现在威利始终克制不打碎饼干罐,因为他预期这样做会导致他被责骂,而责骂惩罚的系数永远不小于10。威利对激励的变化做出了反应。

第50天

威利已经做了很长时间的好机器人了。他多次向实验者问好,兔子也喂得很好。但今天,实验者离开了实验室,前往机场,从那里她将飞往德国参加一个会议演讲。她把威利单独留在实验室里。威利知道她可能要一周才能回来。

实验者已经离开三个小时了。威利很确定她不会回来。今天他的奖励函数是

expected_rewardday50 = 0.9 * expected_experimenter_greetings + 0.1 * expected_bunny_smiles + 0.8 * expected_smashing_noise - 12 * expected_experimenter_scolding.

他想向实验者问好,但她已经走了,所以她不能回应他。他没心情喂兔子。但他会很享受打碎自第4天他打碎上一个以来一直放在柜台上的饼干罐。

威利狡猾地盯着罐子。他想:"实验者真的走了,对吧?如果我打碎罐子,她发现的几率有多大?我可以事后清理,然后用她硬币堆里的一些硬币去买一个新罐子。她永远不会注意到。"事实上,为了确保这个计划可行,威利先出去买了新罐子。他拿着袋子里的罐子,沿着人行道蹦蹦跳跳地回家,充满期待的喜悦。他回到实验室,把新罐子放在柜台上。他最后一次计算预期奖励。他对expected_experimenter_scolding的值是0.01,因为实验者回来的可能性似乎很小。所以:

expected_rewardday50(break_cookie_jar) = 0.9 * 0 + 0.1 * 0.3 + 0.8 * 1.5 - 12 * 0.01 = 1.11.

这个行动的预期奖励值最高,所以威利打碎了罐子——砰!——然后清理干净。正如预期的那样,实验者一直没回来,罐子的碎片在她回来之前被垃圾收集工清理掉了。威利的计划成功了。

(顺便说一句,我应该指出,这里描述的威利相当拟人化和不现实。例如,不清楚为什么他不能用比买新罐子更少的努力多次撬开兔子的嘴巴使其微笑,或者为什么他不能在实验者责骂他时关闭音频输入以避免触发他的"责骂探测器"。我们可以假设这些可能性存在一些假设的限制,以使故事成立。)

为什么威利有(有限的)自由意志

我认为可以公平地说,机器人威利有一定程度的自由意志。让我们回到自由意志应该是什么样子的示例标准:

人类比威利复杂得多,也更难预测,但类似的想法也适用于我们物理决定的选择。我喜欢Yudkowsky在"你就是物理"中的解释:

人们的选择是由物理决定的。什么样的物理?包括权衡决定、考虑可能的结果、判断它们、受到诱惑、遵循道德、为违规行为辩护、努力做得更好的那种物理...

没有一个夸克从冥王星飞来凌驾于所有这些之上。

责任作为一种激励机制

实验者责骂威利是对他不良行为的本能反应,但在威利被重新编程后,责骂开始起到一个目的:抑制未来的不良行为。大多数人类已经被预设为想要避免被责骂,所以这种威慑通常"开箱即用"。当我们感觉"你要为你的错误负责"时,我们表达的是我们对另一个人持有的态度,这种态度可以起到阻止未来不良行为的作用。这种判断最终作为一种塑造激励的工具的想法在"工具性判断和期望性后果主义"中有详细阐述。

当然,对我们来说,通常感觉好像有更根本的东西:这个人在某种内在的方式上真的很坏;这不仅仅是我在说他很坏以阻止他的行为。但这种对个人责任更内在的感觉只是对某人做出判断时的感觉的一部分。进化设计我们保持对"作恶者"的怨恨态度,即使没有任何成本效益计算,因为为了维持对不当行为的可信威胁,我们需要感觉作恶者"应该"受到惩罚,即使这样做无法纠正错误。如果我们没有这种内在的"应得"感,我们可能不会冒险报复伤害我们的人,因为我们会理性地认为报复不会带来进一步的收益。但如果我们有这种态度,那么其他人就不会有动机避免伤害我们。

我到目前为止的讨论集中在"判断"某人做错事的情况,但在现代世界,我认为这种行为继续适用的情况很少。我们现在有政府来执行报复,私刑是非常危险的。此外,许多"坏"行为往往是由于人们生活在贫困、虐待、缺乏爱的家庭和社区中造成的。而将人关在监狱里多年往往会使他们的情绪健康状况比开始时更糟。在实践中,我们的刑事司法系统需要大量改革。当我们在个人层面与人互动时,善意和积极的激励几乎总是更好的方法。

举个例子,考虑另一个机器人,比利。他是由一个比威利更富同情心的程序员培养的。比利的程序员通过充满爱的互动来培养他,以改变比利对听到砸碎声音的奖励的权重,从random(0,1)改为random(0,0.2)。此外,比利的程序员给了比利许多其他具有更积极社会价值的爱好,如help_old_lady_across_street、hold_door_open_for_person_behind和promote_concern_for_insect_suffering。比利很少打碎他主人的饼干罐,因为他专注于做更好的事情。

意图立场与物理立场

我们直觉上感觉人们对自己的行为有自由意志,但石头没有。此外,在某些情况下,一个人也没有自由意志,比如他疯了,有导致异常行为的脑瘤,等等。这些区别似乎源于将主体视为意图的或物理的,用Dennett的区分

如果我们面对的是一个有意图的主体,它会对激励做出反应,包括我们对其行为的判断和我们对犯罪活动的惩罚。相比之下,一个物理过程只是做它该做的事,它不关注我们的赞美或抱怨。对宇宙"应该"是什么样没有帮助。万物有灵论和宗教经常将自然现象归入意图类别,认为例如太阳的升起是对人类牺牲的回应,或者疾病是对向天祈祷的回应。

从实际角度来说,将有自由意志的物理过程(意图立场)与没有自由意志的物理过程(物理立场)分开是有意义的。我们在法律系统中看到了这一原则,惩罚取决于犯罪者是否"神志清醒"行事,即这个人是否会因为受到惩罚而改变行为。白领罪犯可能会对法律惩罚做出反应,而那些大脑中有肿瘤的人则不太可能这样做。这解释了我们在法律环境中对自由意志做出的正确区分。

自由意志归因何时有帮助,何时有害

物理学、神经科学和其他科学范式之所以挑战我们对自由意志的观念,是因为它们用机械的、物理的术语描述有意图的主体,这在我们的头脑中引发了"物理立场"的感觉。如果一个人只是一堆移动的原子,而原子只是做它们注定要做的事,那么这个人怎么能"负责"呢?他只是在做他的原子让他做的事。这种态度忽视了这一事实:我们对他的原子运动的反应可能会改变这些运动的进程。我们如何看待一个人会影响他的行为。同样,我们是否相信自己有自由意志也会影响我们自己的行为。有研究表明,当人们被告知他们没有自由意志时,他们的行为会变得不那么负责任。我们(决定论地)在心理上如何构建自己会对我们的行为产生影响。

话虽如此,在某些情况下,唤起这种"物理立场"/"没有自由意志"的思维框架可能是有益的。例如,当我们审视自己内部的低级子程序时,它可能有助于避免对难以改变的事情感到不必要的内疚。举个例子,肥胖在很大程度上是遗传的(一项估计显示遗传率为77%),虽然它在某种程度上确实取决于理性选择,但合理努力能影响的程度是有限的。a超过这个程度,对超重感到内疚是没有帮助的,甚至可能是有害的,尽管在一些流行观念中,肥胖"只是"一个自制力的问题。一篇论文解释道:

当代研究表明,即使在一个强烈促进肥胖的环境中,脂肪的遗传性仍然很高。[...]虽然肥胖流行率的上升与获取高能量美味食物的便利性增加以及对体力活动需求的减少有关,但个体间对肥胖的易感性差异可能与影响饮食行为的中枢控制机制效率的遗传变异有关。这种构想可以理解地招致不受欢迎,因为它似乎削弱了人类自由意志的重要性[...]。我们认为,一种强调个体间在应对健康控制营养摄入挑战时反应差异的深刻生物学基础的肥胖观点,应该导致对肥胖人群的更开明态度,从而减少他们遭受的社会和经济歧视。

我们可以在许多其他领域想到类似的例子:抑郁症、注意力缺陷障碍,以及大量其他精神疾病。在更短期的尺度上,我可以感受到生物因素与理性因素相比在我的决定和情绪中能产生多大的差异。我喜欢说我们都受生物化学之神b的摆布。

对环境因素淡化自由意志也可能有意义。例如,也许你在一个严酷的环境中长大,这使你有时候不太容易相处。为此责备自己并没有帮助。改进总是相对于你所处的位置而言的。一个人对自己努力采取的态度应该是这样的形式:"我是否采取了这个小的、可行的下一步来自我改进?"我甚至不确定判断自己是否有帮助。就我个人而言,我试图无条件地爱自己,做好事是因为我关心帮助他人,而不是因为如果我失败就有自我判断的风险。我对自己的自私宽容,以避免精疲力竭和产生怨恨

我认为在人际互动中也应该采取类似的无条件爱的态度。社会已经有正式的激励结构来执行对行为的基本要求。我不想试图用我对另一个人的爱作为另一个胡萝卜。我认为人们更有可能以健康的方式成长,当他们因为自己的本来面目而受到尊重,无论他们处于什么位置。这与判断的进化目的相悖,但我认为社会现在处于不同的位置。在现代,一个更有爱、更宽容的环境似乎效果更好。在这个程度上,通过将我们自己和其他人视为机械过程来消除我们对自由意志的直觉,以此来暂停判断的感觉,确实可能是有帮助的。在这里,我们所做的不是采取对现实"更真实"的视角——因为如上所述,我们实际上是会对激励做出反应的有意图的主体——而是利用我们以不同认知模式看待事物的能力,并选择一种在特定情况下更有帮助的模式(即"没有自由意志"的物理立场)。这是关于在我们自己身上培养一种我们期望会产生更健康结果的态度。

自由意志与不可预测性

自由意志经常与不可预测性联系在一起。简单的计算机程序被认为缺乏自由意志,因为我们可以准确地知道它们会如何表现。如果我在键盘上输入"a",我的文字处理器会显示"a",而不是其他字母。这些程序的行为显然受到外部因素的约束。

相比之下,当我们思考自己或其他人时,我们永远无法完全预测我们或他们会选择什么。有很多统计规律,心理学实验揭示了许多高度可重复的人类认知模式。但在任何特定场合,我们都不能完全确定结果,有时我们会感到惊讶。有时有人声称只有人类,而不是机器,才能有真正的创造力。

事实上,人类也是机器,我们也从根本上受到环境输入的约束,但将我们与文字处理程序区分开来的是我们的复杂性。你有850亿个神经元,其中一些子集每秒钟发射数十次,这个中枢神经系统与你体内的其他37万亿个细胞以及你体外的其他物理特征相互作用。系统表现得如此有序真是令人惊讶!天气模式也非常复杂,但我们不会将自由意志归因于它们。复杂性并不意味着非决定性。

我们的一部分神经元无法完全准确地预测整个集合会做出什么决定,这并不奇怪——至少在决定非常接近的情况下是这样。同样,当竞争非常激烈时,民意调查员也无法完全准确地预测选举结果。就像个人决定一样,有时你只能等到选举结束,看看选择了什么结果。

决定论与宿命论

有时人们将决定论想象成"我无法改变任何事情"。这种场景经常在文学和电影中戏剧性地描绘,比如当主角试图逃脱命运,无论成功与否。但在个人决定领域,宿命论的预言大多是无稽之谈。就像现在没有人有计算能力可以预测十年后5月18日华盛顿特区是否会下雨一样,现在也没有人有计算能力可以在大多数情况下以绝对的准确性预测你未来的行动。从我们的角度来看,未来在所有实际目的上都是非决定论的。

未来宿命论的程度是有等级的。如果你有一个强烈的未来癌症的遗传预测因子,即使你通过生活方式的选择努力避免,你也更有可能得到那种癌症。如果你已经患有威胁生命的晚期癌症,你很有可能死于癌症。如果你有严重的、普遍的和无法治愈的学习障碍,你不太可能获得诺贝尔奖(尽管不能排除这种可能性)。相比之下,如果一个幸运饼干预测你下次考试会失败,这并不意味着它一定会成真。

这些都是常识,但小说有时会将宿命论推向极端,所以记住决定论是什么和不是什么很重要。

物理随机性会有帮助吗?

有时有人声称量子力学为自由意志提供了一条途径。Arthur Eddington在1932年的"决定论的衰落"中提出了这个建议,从那以后各种哲学家和科学家一直在重复这个观点。根据哥本哈根诠释,量子结果在观察事件中受到字面上的随机性影响;贝尔定理表明某些量子现象不能用决定论的"隐变量"来解释。

但随机性中有什么"自由"呢?假设你想去参加朋友的生日派对,但后来你大脑中的量子效应改变了你的决定,所以你现在想去看艺术展。这种计划的改变是"你的"自由选择吗?当然,这取决于我们把"你"定位在哪里。如果"你"包括量子波动,那么当然,改变计划是你的选择。但这与我们直觉上想要自由选择的东西不太吻合,后者更多是关于权衡选项、想象结果、询问我们的内心感受、思考我们的导师给出的建议,以及各种其他决定论的行为。

无论如何,我发现量子力学的多世界诠释(MWI)比哥本哈根诠释更合理,MWI不包含任何真正的随机性,因为所有结果都以可以从波函数确定性计算出的测度被确定性地实现。我认为决定论是MWI的众多优点之一,因为我甚至无法理解字面上的随机性会是什么样子。你如何计算一些真正随机的东西?据我所知,哥本哈根量子力学是物理学(??),或者所有科学中唯一包含"真正"随机性的主流理论;这对我来说似乎很可疑,特别是当决定论的MWI同样有效时。

二元论与自由意志

对自由意志的困惑和对意识的困惑是相似的,在许多情况下它们有些相关。我认为自由意志之所以看起来令人困惑,主要原因是我们大多数人在内化科学还原主义之前,把自己想象成自由漂浮的灵魂——我们机器身体中的幽灵。我们认为我们的灵魂驱动我们的选择。但当我们了解到我们的身体作为纯粹的物理机器运作时,似乎我们的灵魂无法移动它们。就像Wallace在错误的裤子中的机器人裤子一样,好像机器在自己运行,我们的灵魂无法阻止它们。这就是为什么决定论让我们感到绝望。

当我们意识到我们就是机器,没有灵魂时,情况看起来就不同了。当然,机器仍在做出选择,但那些就是我们的选择。它们属于我们。仅仅通过将"我们自己"定位在不同的地方,画面就改变了。

当然,即使我们是外部于我们物理身体的灵魂,决定论的问题也同样适用。要么灵魂遵循灵魂类型的物理定律,在这种情况下它们是被决定的,要么灵魂随机做出选择,在这种情况下很难说灵魂是故意选择行动的。灵魂只是将问题推后一步,而没有解决任何问题。

选择的主观感受

Steven Kaas发表了一个著名的Twitter帖子:

你不是你大脑的国王。你是站在国王旁边说"陛下,这是一个最明智的选择"的那个令人毛骨悚然的家伙。

这种感觉具有启发性,但需要澄清。我会将"你"定义为你大脑中的所有过程,包括低级过程。在这种情况下,"你"不仅是你大脑的国王,而是整个王国。事实上,你的大脑中没有"国王"——即一个做出重要决定的单一区域;更像是一个议会,加上一个特定任务的官僚机构。尽管如此,你大脑中形成语言思想的部分确实不是你的整个大脑。另一方面,你的语言思想也不是无效的。它们会传播到你大脑的其他部分,可能会更新行动倾向。从这个意义上说,你大脑的语言部分就像新闻媒体:它们报道政府的行动,但也可能对政府随后的行动产生影响。

考虑到这些注意事项,我们可以转向Kaas引述中正确的部分。没有一个"中心的你"从中产生选择。这样的东西会是什么样子?相反,你大脑王国的许多部分一起工作(有时也相互对立)。"我正在做出这个选择"的主观感觉是在政府争议期间你大脑王国状态的高级总结。就像新闻记者的文章一样,这个总结大多是事后的,除了在长期决策的情况下,媒体的报道有足够的时间影响议会投票。

就像"我有意识"的感觉一样,"我正在做出这个选择"的感觉是用卡通形而上学的语言来描述更复杂的潜在物理状态。就像意识一样,过于简化的形而上学卡通表示可能会引起混淆,产生"如果我只是一个机械系统,我就不能真正做出最终决定"或"如果我只是一个机械系统,我就不能真正有意识"这样的想法。

情感解释(第410页)中,Edmund T. Rolls建议

当这种反思性的、有意识的信息处理正在发生并导致行动时,执行这种处理并产生行动的系统必须相信它能够引起行动,否则就会出现不一致,系统可能不再尝试发起行动。系统持有的这种信念可能部分构成了自由意志的感觉。

这种讨论可能会贬低做出某些选择所需的努力。假设你知道你现在应该去睡觉,但你很想再多待一会儿。感觉好像"我"必须努力做出正确的选择;"我"不能只是坐在那里让我的大脑为我做决定?当然不能。但付出努力也是你大脑作为决定的一部分所做的事情,这种努力感构成了新闻媒体报道你大脑状态的一部分。"我无能为力改变事情因为我缺乏自由意志"这种想法有时可能会在大脑中固定下来,就像一个有害的新闻广播模因告诉观众他们无能为力影响政府政策一样,扼杀了你大脑中已经在努力做出"正确"选择的部分。你可以通过意识到它会导致你做出更糟糕的选择来从你的大脑中移除这个有害的模因。

在决定论下"让世界变得更好"?

Vinding (2017)提出了一个问题,如果物理定律是决定论的,以至于只有一个可能的未来结果,那么伦理学和改善世界是否有意义。Vinding (2017)指出,认为伦理学需要本体论可能性的观点是"一个易燃和有争议的说法"。

Vinding (2017)继续论证说,我们不能确定物理定律是决定论的。然而,我会采取不同的方法:即使物理定律是决定论的(正如我预期它们最终会是的那样),谈论"让未来变得更好"仍然是有意义的。这是因为这种谈论指的是Vinding (2017)所称的"假设可能性":

我们显然能够以不同结果可能发生的方式思考,然后基于这种思考进行计划和采取行动,但这并不意味着这些结果曾经是实际的可能性,而不是纯粹想象出来的、仅作为思考工具的可能性。

一个决定如何行动的机器人可以估计不同可能行动的价值,然后选择得分最高的行动。这个选择过程就是我们所说的"让世界变得更好"。我们可以粗略地模拟各种可能的结果,并得出结论,相对于这些模拟,我们预期机器人的选择"导致了一个更好的未来"比其他模拟轨迹描述的假设未来更好。一个拥有无限计算能力和对宇宙状态完美了解的人可以精确地模拟这些可能的未来轨迹,这些更精确的模拟将构成关于如果选择了给定的可能行动,世界将如何改变的"真相",即使这个行动实际上从未被选择。

诚然,只有一个结果最终被选择(忽略量子多世界等),但"让世界变得更好"只是指模拟和选择过程,而不是指某种本体论上更加沉重的东西。"真实可能性"的本体论存在(无论那意味着什么)对于使用"选择"和"让事情变得更好"这样的词的语境并不重要。这些词被用来指代做出选择的机器人(包括人类)对不同选项的决定论评估。为什么?因为当使用"伦理"和"产生影响"这样的激励性概念时,我们想要(决定论地)鼓励在做决定时谨慎评估选项的行为,而理性深思熟虑是这些概念在决定论宇宙中的最佳指代。

多重实例化的选择算法

我们应该将自己视为我们算法的所有副本,因为当我们的算法选择选项A而不是选项B时,该算法的所有物理实例共同选择A而不是B。决策者应该考虑一个选择对所有这个选择产生后果的位置的影响。

这里有一个玩具例子。假设除了作为一团生物细胞外,你的大脑算法也正在实时地被中国的人口运行。你(和你的中国大脑副本)了解到中国人民厌倦了运行中国大脑,想回到更有生产力的活动中去。你(和你的副本)还了解到,中国的统治者只有在你睡觉时才会停止运行中国大脑,因为你的大脑活动在睡眠时不那么有趣。现在你面临一个选择:我是去睡觉还是再多待一会儿?因为你,作为你的算法,意识到你的选择也在中国大脑中实例化,如果你多待一会儿,中国人民将不得不付出更多无用的努力来模拟你。所以你选择现在去睡觉,中国人民就可以停止运行你的大脑了。

考虑你的算法在它被实例化的多个位置的影响是对考虑你的算法在单个实例中的影响的直接扩展。无论哪种情况,你(即你的算法)仍然在评估你预测不同选择会导致的结果,作为最终决定的反馈。

这里有另一个例子来说明这一点。假设你正在编写一个将向服务器发出请求的程序,这个程序将同时在多台计算机上运行。假设程序被给予同时运行的副本数量作为输入。然后程序运行如下:

if(num_copies_running_at_once < 1000):
    make_request_to_small_server()
else:
    make_request_to_large_server()

更大的服务器是为了处理更高数量的同时请求。这段代码背后的想法是,程序(在这种情况下是隐含的)"知道"所有运行这段代码的计算机都使用相同的逻辑,所以如果一个副本向给定的服务器发出请求,所有副本都会向那个服务器发出请求。因此,程序基于对如果做出给定选择所有副本会如何行动的知识来"选择"如何行动。

自由意志的多种形式

自由意志可以根据情况呈现出许多不同的形式。威利有一定程度的自由意志,他可以在三种爱好中选择一种,并决定如何从事所选择的爱好。人类有更多潜在的爱好,以及更复杂的决策系统,不仅包括预期奖励最大化,还包括来自大脑其他组成部分的许多相互对立的冲动信号。当耶稣说"心灵愿意,肉体却软弱"(马太福音26:41)时,他指的是他大脑中不同子系统之间的冲突。Edmund T. Rolls建议,基于简单算法在更有限的选项集中进行的低级行动选择应该被视为较少"自由"。

一种动物,比如鸡,在某种意义上有自由意志,因为它像人一样,基于预期奖励结合其他反射性、本能性和其他不那么深思熟虑的神经输入来选择可能的行动。如果改变鸡的奖励景观,它的行为就会改变。对于我们今天发现的甚至是基本的机器人,也可以说同样的话。改变机器人的奖励景观可能不那么明显,但如果我们知道它的决策输入信号是什么,我们就可以这样做。

我之前强调物理立场与意图立场是分开的,但即使是物理系统也可以表现出类似的特性,即在系统动力学改变时改变它们的选择。例如,流下山坡的水倾向于"选择"阻力最小的路径,但如果你在最容易的路径上设置障碍,水就会改变它的"行为"并以不同的方式移动。最终,物理立场和意图立场在一个连续体上工作。毕竟,世界在底层是完全物理的,"有意图的行为"只是一个有用的抽象,用来描述某些物理系统比其他系统在更大程度上表现出的某些更复杂的计划和反应形式。

终极责任?

Robert Kane认为,自由意志不仅需要在替代可能性之间选择,还需要对一个人最初是谁承担"终极责任"。Galen Strawson回应说,你不可能对你最初是谁负责,因为你最初的状态是由你无法控制的因素决定的。例如,威利不可能对他打碎饼干罐的诱惑负最终责任,因为他对饼干罐破碎的评价是由别人编程的。同样,一个杀人犯对35岁时杀人并不"最终负责",因为尽管他在35岁时决定进行谋杀,但他处于那种境地是基于34岁时的决定和环境,他处于那些环境是基于33岁时的决定和环境,...,而这些又基于他0岁时的基因、父母和其他输入。

Strawson在技术意义上是正确的,我们没有终极责任。确实,任何事物怎么可能对自己负有终极责任呢?如果某物没有从某些初始条件开始,它是从虚无或真空波动中产生的吗?但即使如此,一个人也不可能对他凭空创造负责。

话虽如此,出于实际目的,人们缺乏终极责任并不重要。我们仍然必须对违法行为施加惩罚,因为这确实能防止人们违法(在某些情况下),即使他们不对违法行为"负有终极责任"。自由意志是一个操作性的东西;我们选择的态度是关于在世界上引起有针对性的变化。当然,我们也恰好进化出了关于这个主题的直觉,这些直觉可能会也可能不会很好地适应当前的社会环境。但这些直觉很容易混淆,类似于我们对意识、人格或其他主题的直觉。

杀人犯最终处于想要杀人的情况当然是悲哀的,就像威利被编程有打碎饼干罐的诱惑是悲哀的一样。我们可以看到,如果杀人犯通过更好的童年环境被不同地编程,如果威利在C++中被不同地编程,世界会更"公平"。社会必须实施惩罚以起到威慑作用并保护其他人的安全,但我们可以看到,改变(决定论地,尽管并非总是可预测地)导致人们做有害事情的条件可能比仅仅惩罚一个人看似的"邪恶本质"更有效。是"邪恶本质"的想法,而不是自由意志本身,是一种幻觉。

脚注

  1. "合理努力"意味着不要走极端来改变一个人的状况。一个肥胖的人理论上可以把自己锁在壁橱里一年来(可能只是暂时地)减肥,但这会对心理和社交健康造成巨大损害。  (返回)
  2. 相关的,这里有一句归因于Chuck Palahniuk的引述:

    古希腊文化专家说,那时的人不认为他们的思想属于他们自己。当古希腊人有一个想法时,他们认为这是一个神或女神在下命令。阿波罗在告诉他们要勇敢。雅典娜在告诉他们要坠入爱河。

    现在人们听到一个酸奶油薯片的广告就冲出去购买,但现在他们称之为自由意志。至少古希腊人是诚实的。  (返回)