摘要
我支持恤苦伦理学(SFE),这意味着我认为防止痛苦,尤其是极端痛苦,比创造积极的善如幸福更具有特殊的道德紧迫性。我的恤苦伦理学版本源于几种不同的直觉,比如强迫一个人遭受痛苦以换取其他人增加幸福是错误的。
我支持恤苦伦理学最强烈的动机是,极端痛苦似乎是如此可怕,以至于积极的善无法与之相比。对这种直觉的一个常见反对意见是,它受到了人类最糟糕的痛苦可以明显强于最好的快乐这一事实的偏见,但这对任意的人工心智来说不一定成立。因此,这种指责认为,这种关注痛苦的直觉仅仅基于我能想象出比幸福更强烈的痛苦这一事实。
恤苦伦理学的支持者以不同的方式回应这一论点(Knutsson 2017; DiGiovanni 2021; Vinding 2022)。就我个人而言,我的回应是,我不觉得有太大动力去强迫自己更关心超级强烈的幸福(以下简称"超级幸福"),特别是因为更重视超级幸福意味着对防止极端痛苦的关注会减少。有人可能会说"如果你经历过超级幸福,你就会更关心它",但这可能并不令人惊讶。如果经历超级幸福必然在某种程度上涉及非常关心那种体验,那么经历超级幸福会改变我的动机就不足为奇了,即使在体验结束后也是如此。但那又怎样呢?如果我体验了强烈地想要制造回形针的感觉,我可能在之后也会保留一些制造回形针的动机。道德价值观是极其任意和脆弱的,所以我认为防止意外的价值观偏移至少与尝试以各种方式改变我的大脑以看看我的价值观会如何变化同样重要。
目录
不基于强度的恤苦伦理学直觉
有许多支持恤苦伦理学的论点和直觉(Vinding 2020)。
包括我在内的许多人都有这样的直觉:为了给另一个人带来额外的幸福而伤害一个人是错误的,至少在伤害和利益在规模上似乎可比的情况下是如此。例如,给Bob带来1分钟的轻微头痛,以便Alice可以享受一个额外的冰淇淋(她目前并不渴望)似乎是不好的。这种直觉可能部分基于对牺牲性伤害的一般性道德义务论冲动。然而,我不认为给Bob带来1分钟的轻微头痛以防止Alice遭受2分钟的轻微头痛是错误的。所以我认为这种直觉也重要地涉及痛苦和幸福之间的本质区别。有一种感觉是,幸福在道德上某种程度上比痛苦更微不足道,除非在幸福本身能防止痛苦的情况下,比如缓解渴望。
DiGiovanni (2021)列举了一些强度相当的幸福和痛苦对,甚至幸福似乎具有更大的强度(在这种比较有意义的范围内)。他得出结论:"虽然选择并不总是直觉上明显的,但最终当我想象让某人依次经历这两种体验时,或者更糟的是让两个不同的人分别经历这两种体验时,这看起来是不值得的。"
对于一种痛苦体验与一种幸福体验的对比,我也有这种直觉。然而,如果我们想象,比如说,1000种适度幸福的体验与一种适度糟糕的体验相比,我开始觉得适度糟糕的体验可以被抵消。例如,一个人踢到脚趾并感到15秒的疼痛但没有任何持续伤害,似乎值得让另外两个人多体验一周充满欢乐的蜜月,即使那个蜜月不包含任何瞬间体验的快感强度高于踢到脚趾。
(这个蜜月的例子可能具有误导性,因为在现实世界中,额外一周的蜜月可能会减少痛苦而不仅仅是创造幸福。例如,在那额外的一周里,这对夫妇会避免回到可能无聊的工作中,不会因家务而感到压力,等等。这段经历的美好回忆可能成为未来安慰的来源。所以为了使这个例子公平,最好谈论一个体验机器,它创造了一对全新的幸福夫妇度过一周的蜜月,之后他们会再次消失。我仍然认为为了创造这种体验机器蜜月而踢到脚趾是值得的,尽管我对此并不感到非常强烈。)
我的直觉是,适度的幸福不能以1比1的比例抵消适度的痛苦,但足够多的适度幸福可以抵消适度的痛苦,这与所谓的"弱负向功利主义"(弱NU)一致,即认为幸福和痛苦都有价值,但痛苦在道德上更有分量,即使痛苦和幸福体验具有相同的强度。(如何定义快感体验的原始强度与我们对其道德善恶的评估分开是模糊的,但有各种选择。我们可以让人们评价给定体验的强度。我们可以检查大脑对刺激的各种类型的活动有多强烈。我们可以研究生物体如何在不同刺激之间权衡。)相比之下,强NU认为只有痛苦才重要,幸福永远无法抵消它。
如果痛苦和幸福之间的交换比例足够大,比如10比1或1000比1,那么弱NU已经导致了与所谓的"对称"功利主义明显不同的结论。例如,虽然对称功利主义者可能不确定人类生活平均包含更多善还是恶,但即使是10比1的交换率的弱NU也会得出结论,人类生活在整个世界中包含的负面价值多于正面价值。(Contestabile (2022)认为即使1.5比1或3比1的交换率也会得出相同的结论。)至于遥远的未来,我认为地球起源的太空殖民预期产生的幸福与痛苦的比例可能在10比1或100比1的数量级。因此,足够强的弱NU也表明,从预期来看,遥远的未来是净负面的。
因此,也许弱NU就足以在实际问题上大致以与持强NU的人相同的方式行动。因此,即使有效,我将在本文剩余部分讨论的论点也不会推翻恤苦伦理学,这也是DiGiovanni (2021)所捍卫的结论。然而,就我个人而言,恤苦伦理学的"纯粹强度"论点是我支持恤苦伦理学最强烈的直觉,所以我认为也值得讨论。
恤苦伦理学的"纯粹强度"直觉
当我思考(或更糟,观看)像活活烧死这样的体验时,我的大脑被"这太可怕了,必须停止"的感觉压倒。当然,大多数人都有这种反应。然而,我的反应似乎比许多其他人的反应更强烈。我得出的感觉是,"活活烧死太可怕了,积极的体验无法与之相比"。我不确定我是会说没有任何数量的幸福可以抵消活活烧死,还是仅仅说需要~数十亿年的幸福才能抵消一分钟的活活烧死。但无论如何,我的痛苦关注程度都比轻微痛苦和快乐的情况要强得多,在轻微痛苦和快乐的情况下,我可能会说~100人经历轻微快乐可以抵消1人经历轻微痛苦。
这种被折磨等事物的纯粹可怕性压倒的感觉是我支持恤苦伦理学的最强理由。我其他支持恤苦伦理学的直觉较弱,我可以想象被说服放弃它们。例如,我主要的不基于强度的恤苦伦理学直觉可能是为了他人的幸福而给某些人带来痛苦是错误的,但为了幸福而给自己带来痛苦似乎不那么错误。如果我采用"开放个体主义"(认为每个人都是同一个宇宙范围内心智的一部分)这样的观点,那么就不存在人与人之间的分离,为了幸福而施加的任何痛苦都只是对"自己"施加的痛苦。
恤苦伦理学的"纯粹强度"直觉是我的道德基石。我对折磨在道德上比积极的善严重得多的看法比几乎任何其他道德主张都更有信心,我宁愿放弃几乎任何其他道德直觉也不愿放弃这一个。
偏见反对意见
部分因为我支持恤苦伦理学的"纯粹强度"直觉,有效利他主义社区中的一些人对此提出了反对意见。我认为以下反对意见源自Carl Shulman,现在在反对恤苦伦理学时被其他人广泛引用。
Shulman (2012)解释说,虽然对进化的动物来说,最强烈的痛苦可能比最强烈的快乐更强,但这对人工心智不一定成立:
我们的直觉和经验可能误导我们对可能的痛苦和快乐的强度。对人类来说,性高潮的快感可能不如致命伤害的痛苦,因为死亡对繁殖成功的损失远大于单次性行为的收益。但更强烈的快感的想法并没有什么问题[...]。
Omnizoid (2021)呼应道:
鉴于世界目前的运作方式,没有办法体验到与被残酷折磨时所经历的痛苦一样多的幸福。[...]超人类主义为极度幸福开启了可能性,其程度与残酷折磨带来的痛苦一样大。
如果我们谈论的是以心智的客观属性或主体会做出的权衡来衡量的快感强度,而不是道德评价,那么我可能同意这些观点。因此,这些观点至少反对了一种经验性而非道德性的关注痛苦的观点,即使在后人类未来,痛苦也会仅仅因为其强度高于幸福而超过幸福。相反,后人类可能(如果他们想要的话,他们可能不会)创造出在客观大脑属性方面至少与折磨一样强烈的超级幸福,这是可信的。
然而,还有一个进一步的问题是如何在道德上评价极端幸福与极端痛苦。我在Shulman (2012)的评论中说,即使客观强度相等,我仍然更关心极端痛苦而不是极端幸福。Shulman回复道:
我怀疑直觉被我们相对缺乏[极端]快感的经验所扭曲;正如我们在其他地方讨论的那样,这是认为你完全了解并经历过极端痛苦和极端快乐的自我会不那么倾向于负面的原因[。]
Omnizoid (2021)在与我的评论讨论中也写道:"我们实际上无法想象超人类的幸福可能有多好"。当我说我仍然不觉得超级幸福很有动力时,Omnizoid回答说:"这对你目前的直觉来说是真的,但我关心的是如果我们完全理性和知情,我们会关心什么。"
换句话说,这些作者认为
- 我认为痛苦在道德上比幸福重要得多的偏见是基于我的大脑更能感受和想象极端痛苦而不是极端幸福这一偶然事实,以及
- 给予更多信息和反思,我可能会比现在更关心极端幸福。
我将依次讨论这两点。
我就是我的偶然偏见
我支持恤苦伦理学的"纯粹强度"直觉可能确实来自我对极端痛苦的情感反应如此强烈而对假设的极端幸福的情感反应相对较弱这一偶然事实。当思考折磨时我感到的恐怖已经在很深的层面上"烙印"在我的动机系统中,而超级幸福的概念感觉抽象。即使我想象我经历过的特定愉快体验,它们也无法与折磨的可怕相提并论,很难想象比我经历过的快感强烈得多的快感。如果我的大脑接线不同,能够体验极端快感,我可能会对创造超级幸福而不仅仅是防止极端痛苦有"纯粹强度"的直觉。
所以如果我的大脑接线不同,我会有不同的道德价值观。但那又怎样呢?如果我的大脑被接线成在道德上关心创造回形针,我就会想要创造回形针。如果我的大脑被接线成在道德上重视造成痛苦,我就会想要造成痛苦。等等。导致我当前价值观的偶然情况造就了我而不是其他人。
人类重视幸福和痛苦也是基于进化的偶然事实。如果进化创造了以其他方式驱动行为的生物,我可能不会太关心幸福或痛苦;它们对我来说都会显得抽象和陌生。
许多人觉得在创造美好未来时,新奇性和多样性很重要。例如,大多数超人类主义者不满足于用单一、统一的、最大限度幸福的体验填满宇宙的想法。但这些人对好事多样性的重视可能是偶然进化力量的结果。动物寻求新奇是有工具性用处的。例如,无聊激励探索,特定感官饱和鼓励动物消费不同种类的食物以获取不同的营养,而库利奇效应鼓励雄性使多个不同的雌性怀孕而不是只有一个。因此,进化给了我们一种普遍支持新奇和多样性的直觉,这可能使我们倾向于认为新奇和多样性本身就是有价值的。也许如果我们在寻求多样化体验没有用处的世界中进化,人们就不会太在意创造各种不同的好事。然而,即使这种对多样性的偏好可以用进化生物学的偶然事实来解释,大多数人也不认为这种直觉被"揭穿"了。相反,我们继续珍视这种直觉,将其视为我们特有的人类价值观复杂性的一部分。
我提出的解释新奇性具有内在价值这一广泛直觉的(事后)故事似乎与我支持恤苦伦理学的"纯粹强度"直觉背后的故事相当类似:
- 在新奇性的情况下,人类注意到他们在情感上被多样性吸引,并对充满宇宙的统一好事的想法感到厌烦。即使这些反应是基于人类神经系统目前如何工作的偶然事实——因为无聊恰好对我们有用,尽管这不一定适用于非进化的人工心智——人类将他们感受到的这些情绪转化为多样性具有内在道德价值的信念。我们觉得太多的统一性不仅对人类心智来说是不可取的,而且本身就是不可取的。我们不仅在自己的生活中寻求多样性,还希望整个宇宙都是多样化的。
- 在我最强烈的恤苦伦理学直觉的情况下,我注意到当思考极端痛苦时,我的情感反应远远强于思考任何积极的善。即使这种反应是基于人类神经系统目前如何工作的偶然事实——因为经历比最佳快感更强烈的最坏情况痛苦恰好对我们有用,尽管这不一定适用于非进化的人工心智——我将我感受到的这种情绪转化为极端痛苦在本质上比任何积极的善具有更大道德意义的信念。我觉得极端痛苦不仅对人类心智来说是至关重要的,而且本身就是至关重要的。我不仅专注于防止自己生活中的极端痛苦,还希望整个宇宙都专注于防止极端痛苦。
这两种情况之间可能也存在不类似之处。但至少对我来说,为什么我们要放弃"纯粹强度"的恤苦伦理学直觉而保留多样性直觉并不明显。
想象一个名叫Shu的对称快乐功利主义者。(她名字的字母是她道德信条的首字母缩写。"Shu"这个名字在中国也意味着"热心"。)Shu可能会对我刚才描述的类比做出反应,认为它似乎同时揭穿了多样性和"纯粹强度"的恤苦伦理学。因此,Shu可能会说,我们应该把我们未来的光锥转化为一个同质的最大快乐blob。对此我会回答说,Shu自己的道德价值观也可以用我用于她拒绝的两种直觉的同样模板来描述。特别是:
- 在对称快乐功利主义的情况下,Shu注意到她在情感上被幸福吸引,并在思考痛苦时感到不好。即使这些反应是基于人类神经系统目前如何工作的偶然事实——因为关心幸福和痛苦恰好对我们有用,尽管这不一定适用于非进化的人工心智——Shu将她感受到的这些情绪转化为幸福和没有痛苦具有内在道德价值的信念。Shu觉得幸福不仅对人类心智来说是可取的,而且本身就是可取的。Shu不仅在自己的生活中寻求幸福,还希望整个宇宙都充满幸福。
归根结底,我们的道德观点是我们选择保留的偏见。如果我们不偏向某个方向或其他方向,我们就不会关心任何事情或会关心完全随机的事情。
话虽如此,我们有时确实选择抛弃偏见。例如,我们最初可能假设人类在道德上比非人类动物重要得多,但在反思反物种歧视的论点后,我们可能选择放弃这种偏见。所以仍然存在这样一个问题:给予更多信息和反思,我是否会选择放弃关注极端痛苦的偏见。
反思会改变我的观点吗?
有效利他主义者有时提到"我在道德反思后会关心什么",好像这个问题有一个明确定义的答案。事实上,我们可以采取几乎无限多种方式进行道德反思,我怀疑这会导致几乎无限多种输出道德观点(Tomasik "Dealing ...")。
有些类型的反思是相当明确受欢迎的。例如,如果你关心减少野生动物的痛苦,那么获得关于特定类型的野生动物数量的更准确数据就是对你观点的改进。很难为纯粹事实性信息这样把鸵鸟头埋在沙子里辩护。
在另一个极端,一些类型的"反思"是明确不受欢迎的。用一个我相信源自Eliezer Yudkowsky的例子,如果我们有一种药丸会让人想成为杀人犯,那么目前和平主义的甘地会拒绝服用这种药丸,因为它会导致他目前认为可憎的价值观偏移。强制洗脑、大脑损伤和不受欢迎的大脑编辑可能也算作"坏"的改变当前价值观的方式。
在这两个极端之间是一个广阔的灰色地带,在那里并不总是清楚所讨论的程序在多大程度上算作受欢迎的道德反思,而不仅仅是不受欢迎的价值观偏移。支持特定道德观点的哲学论证可能主要属于受欢迎的更新,而优化的宣传可能更多地属于不受欢迎的一方。有新的经历、结识新朋友和变老也有一些受欢迎和不受欢迎的道德变化的混合。这些过程教给我们新的信息,给我们更丰富的思想库来借鉴,尽管它们也部分地通过更直接地调整我们的情绪和动机来"强行"修改我们的价值观。当然,我们可能觉得某种程度的强制性动机变化,比如随着年龄增长而发生的认知转变,也是可取的。归根结底,是否欢迎改变我们道德观点的特定过程取决于我们自己。
有了这个前言,让我们回到我支持恤苦伦理学的"纯粹强度"直觉是否会在反思后减弱的问题。"在反思后"的含义并不清楚,但我将考虑两种广泛的情况。
情况1:纯粹的理智论证
在这个话题上进行反思的一种方式就是简单地听到更多关于它的哲学论证,比如我一直在讨论的偏见论证。当然,我不知道我会如何对未来我还不知道的论证做出反应,但我可以评论一下我对现有反偏见论证的感受。
当我被说服相信可能存在客观强度比折磨更强的超级幸福时,从一个非常抽象的角度来看,我发现这有些令人信服。就像,如果我处于一种试图压制情感反应而专注于理智优雅的心态,那么极端幸福可以(至少在足够数量的情况下)抵消极端痛苦似乎是合理的。但如果我想象真的按照极端幸福可以抵消折磨的原则行动,那会感觉缺乏动力,几乎令人厌恶。我就是无法让自己那么关心创造新的幸福,即使是极端幸福,而人们和动物正在忍受难以承受的折磨。我的情感反应是我道德的驱动力,理智的优雅必须退居其次。如果我目前的情感反应是基于对极端痛苦比极端幸福更熟悉而烙印在我的大脑中的,那就这样吧。这些是我拥有的情感,也是我想要保留的情感。
我只是在描述我自己的反应。我知道对一些人来说,特别是具有系统化思维的有效利他主义者,理智的优雅可以胜过情感直觉,我认为确实有一些人发现这些关于超级幸福的理智观察很有说服力。话虽如此,如果一个人发现反对"纯粹强度"恤苦伦理学直觉的进化揭穿论证很有说服力,那么为什么不接受反对将内在价值赋予新奇性的进化揭穿论证呢?或者反对关心快感幸福或意识的揭穿论证呢?等等。在保留还是拒绝情感之间划一条界限并不清楚。
我想在这篇文章中说的部分内容是,如果你不想的话,你不必觉得偏见反对意见(或任何道德论证)有说服力。我可以想象一些有效利他主义者并不真的关心创造超级幸福而不是防止折磨,但感到被"欺负"必须关心它,因为比他们聪明的人有支持它的论证。我会告诉这些人,你的价值观可以是你想要的任何东西。你不应该被欺负去持有你不认同的道德观点。
情况2:实际体验超级幸福
想象一下,我不仅仅是听到关于更关心超级幸福的理智论证,而是实际体验了它。由于人类大脑中"坏比好强"的事实,体验超级幸福可能需要对我的神经系统进行一些重大编辑。我们也可以想象一个较弱的近似,即我体验了我目前的大脑可能产生的最强烈的幸福。
我怀疑这个过程会在情感层面上对我更关心超级幸福产生重大影响,可能到了我会以与轻微快乐和痛苦相似的比例权衡它与折磨的程度。我在当前生活中看到这种现象的微弱影子:当我心情好而不是悲惨时,我更倾向于认为足够的幸福可以抵消适度的痛苦,尽管这种影响并不巨大。换句话说,体验更多的幸福往往会让我稍微更重视幸福。所以体验极端幸福可能会让我更重视幸福。但这似乎是一个相当不令人惊讶的事实。体验幸福意味着我的大脑感到动力继续拥有像我现在这样的大脑状态,这种对我自己大脑状态的动机"溢出"到我的利他主义动机中,使我更倾向于让其他大脑进入类似的心理状态,这是可信的。
我认为痛苦的定义特征是结束当前心理状态的动机。疼痛的感官体验本身并不是痛苦,除非伴随着希望体验停止的愿望。疼痛不敏感症指的是一种感受到疼痛但不觉得烦恼的情况,这不算作痛苦。同时,任何一个人希望摆脱的心理状态都是痛苦,即使没有伴随的身体疼痛。
幸福可能会对称地被描述为一个人有动力继续保持的心理状态,或者至少是一个人关心拥有的心理状态。想象一种"快感不敏感症"的情况,其中患者感受到与快感相关的身体感觉,但不关心它们。这算是一种幸福吗?在我看来,你需要关心你的快感才能算作幸福,就像你需要关心你的痛苦才能算作痛苦一样。话虽如此,在幸福的情况下,我对这一说法的确定性不如在痛苦的情况下。
如果我们确实假设"体验幸福"主要是关于"被激励继续给定的心理状态"或"关心拥有心理状态",那么体验超级幸福就意味着极度被激励继续给定的心理状态或非常关心拥有它。换句话说,拥有超级幸福的体验不仅仅或主要是关于"学习新信息"。相反,它在很大程度上是关于改变(即使只是暂时的)一个人的动机,类似于甘地拒绝服用的谋杀药丸。在狂喜的时刻,我可能会感觉:"这太棒了,值得一些折磨。"如果幸福足够强烈,也许我甚至会有这样的想法:"这值得经历无限的痛苦。"这样的感觉会反映出我的动机系统发生了重大变化,相对于我目前的观点来说,这算是重大的价值观偏移。希望我的价值观之后会大部分恢复正常,但可能会有一些动机变化仍然"烙印"在我的大脑中,即使我只体验一次超级幸福,这也是可信的。
"如果你体验更强烈的快感,你会更关心快感"这种说法可能是正确的,但几乎是微不足道的。它说如果我体验到更强烈的继续愉快大脑状态的动机,我可能会在之后保留一些这种动机。但那又怎样呢?为什么我要以那种方式改变我的动机呢?
我们可以对各种可能的价值观做出类似的陈述。例如,考虑爱国主义的价值,我将其理解为捍卫你国家的荣誉,即使代价是极端痛苦,比如在战斗中死亡或被敌人折磨。假设你目前认为快感体验很重要,但不关心爱国主义本身。如果你目前不关心爱国主义,那么你可以从了解爱国主义的感觉中受益,对吧?这可能是道德反思的重要部分。所以我们可以稍微重新连接你的大脑,让它感受到超级爱国主义,也就是极度强烈的捍卫国家的欲望,比任何当前人类水平的爱国主义都强烈。在那种体验结束后,你的大脑可能会保留一些(甚至大量)爱国主义动机,只要你感受到的强烈动机导致神经连接的持久变化。类似于超级幸福的情况,我们可以声称:"如果你体验更强烈的爱国主义,你可能会更关心爱国主义"。但再次,那又怎样呢?
我们可以对几乎任何类型的动机做类似的程序。也许你目前缺乏对虐待狂感觉的了解,所以体验极度伤害他人的动机会有利于你的道德反思?也许你应该了解极度被激励创造回形针的感觉,到了你愿意放弃几个世纪的幸福并忍受几个世纪的折磨只为了多创造一个这些金属办公用品的程度。等等。
痛苦和幸福只是可能存在的众多类型动机中的两种。痛苦和幸福是关于一个人自己心理状态内容的动机——即结束或继续那些心理状态。但主体也可以有关于外部世界事物的外向动机,比如保护自己的孩子、捍卫国家的荣誉、创造回形针、销毁订书钉、解决黎曼假设等。
虽然我一直在幸福与其他形式的动机如爱国主义和想要创造回形针之间画类比,但我承认它们之间可能也存在一些差异。从现象学上讲,幸福的感觉与爱国主义不同,这表明它们的神经实现可能也有所不同。例如,也许幸福中的大部分动机发生在"较低层次"的大脑结构中,而爱国主义更多地是关于一个人更高层次的、明确的信念?(我不知道这是否正确;这只是可能存在于这些事物之间的区别类型的一个例子。)也许可以编辑我的大脑,使较低层次的部分感受到超级幸福的动机,而不编辑较高层次的明确思想也关心超级幸福?也许这可以成为一种尝试,在试图给我一些超级幸福感觉的信息价值和不过度劫持我的更高层次动机之间做出妥协。
或者,也许可以拥有超级幸福的记忆而不保留任何对超级幸福的动机,尽管我不确定这是否可行。回忆过去的情绪往往包括在当下再次感受到一点那种情绪。例如,回忆你悲伤的时候可能会让你再次感到有点悲伤。所以回忆超级幸福可能会"偷偷带入"一些相同的体验,包括体验它的动机,即使我们试图不让体验的动机方面留存下来。如果可以以更冷静的方式记住过去的超级幸福,不会重现其任何动机方面,那么也许超级幸福的记忆根本不会增加我对它的道德评价?
我们可以用各种可能的方式编辑我的大脑来获得各种体验。我们可以尝试寻找方法来给我关于新事物的信息价值,而不同时破坏我的动机神经网络,尽管从根本上说,我怀疑在一个混乱的、相互连接的大脑中,不同的子系统没有明确划分,很难在"仅仅提供信息"和"改变动机"之间做出清晰的区分。
作为信息和行为劫持之间模糊界限的类比,考虑打开恶意数据文件(例如,特制的MP4视频)可以让攻击者控制计算机,比如通过缓冲区溢出。从某种意义上说,MP4文件"只是信息"(一串0和1),但它也可以夺取计算机的行为控制权。在人工智能(AI)安全的背景下,一些研究人员担心超级智能AI可能仅仅通过告诉人们某些事情就能劫持人们的价值观,甚至不需要直接编辑他们的大脑。话虽如此,有人可能会争辩说,这些情况与体验超级幸福有些不同,因为超级幸福并没有被特别设计来劫持人们的价值观。(或者它有吗?改变人们的动机是幸福的进化目的。)
当我们真正理解我们的动机是多么任意,以及它们相对于我们可能拥有的广阔可能动机空间是多么脆弱时,我发现我几乎没有倾向于进行那种包括对我的大脑进行大量改变以看看最后会得到什么的硬核道德反思。我当前的价值观就像一个玻璃花瓶,在长途旅行到达目的地的过程中,它似乎很容易被打破。如果价值观无论如何都是如此任意,为什么不坚持我已经知道和喜爱的价值观呢?
在这篇文章的第一句话中,我说我支持恤苦伦理学。我故意选择了"支持"这个词,因为它最初来自"娶为妻子"的含义。我对那些正在经历极端痛苦并希望它停止的人感到忠诚。我想对他们保持忠诚,而不是为了可能诱惑我的动机系统的其他项目而抛弃他们,比如创造超级幸福。(作为一个懒惰的人,我很经常专注于减少极端痛苦以外的兴趣。但这里我说的是我把生活中花在后果主义利他主义上的那部分时间用在哪里。)
Muehlhauser (2017)在脚注242中提出了一种道德反思版本,在这个版本中,他可以假设创造数千个自己的上传副本,这些副本会考虑各种道德论证,有各种经历,并与他人交谈。然后这些副本可以相互讨论和协商,然后建议他的原始自我他的价值观应该是什么。这种反思程序似乎可能比仅仅对我实际拥有的单一大脑进行更新更安全,因为如果少数副本因某种经历而严重损坏,希望会有足够多其他没有损坏的副本来平衡它们。当然,什么算作"被损坏"并不清楚。假设大多数上传副本体验了超级幸福,然后报告它在道德上有多重要。没有这样做的副本可能会认为大多数人已经被损坏了,就像一些宗教人士认为世界上大多数人已经偏离了上帝。同时,如果只有少数副本体验超级幸福,那么最终数千个副本的集体判断可能根本不会太关心超级幸福。因此,即使我们有数千个副本可以玩,我预计输出的道德判断仍然会在很大程度上取决于反思设置的参数,比如有多大比例的副本会体验超级幸福(或超级爱国主义、超级虐待狂等)。
有人可能会问我:"你不好奇尝试感受超级幸福吗?"我确实有些好奇,因为这既有智力上的趣味,又会很有趣。然而,我对它的好奇程度并不是很高,而且我会担心这种体验会导致我大脑中一些"强制"的价值观偏移。如果我要体验超级幸福,那么我也应该尝试体验超级痛苦,这样才公平,这样我的动机就不会偏向亲幸福的方向太多。但如果有人提议让我体验一小时超级幸福和一小时超级痛苦的组合,我会说:"绝对不要!"如果有人提议给我一百万年的超级幸福换取一小时的超级痛苦,我仍然会说:"不行。"这个例子本身就说明了我的恤苦伦理学直觉。
也许我可以体验仅仅与我曾经感受过的最强烈痛苦一样强烈(就客观大脑属性而言)的幸福,这样我就不必也体验任何额外的痛苦来保持比较的公平性。理论上我不一定会拒绝这个,尽管我仍然会担心一些目标偏移。而在现实世界中,我会担心对幸福产生某种程度的上瘾——即使不是身体上上瘾,至少也会上瘾到我想再次体验它并可能为此目标花费相当多精力的程度。
我也会好奇知道感觉回形针是宇宙中最重要的东西是什么感觉。甚至知道超级虐待狂是什么感觉也会很有趣。但拥有这些体验,尤其是后者,听起来是个坏主意。
有人问我是否是快感缺乏症。答案是否定的;我认为我感受快感的程度大致处于平均水平。我也经常有负面情绪,但我预计这也大致处于平均水平。话虽如此,我的心理学中肯定有一些与平均水平不同的地方。我最好的猜测是,当想象极端痛苦时(尽管不是轻微痛苦;我不太在意日常生活中的低级痛苦),我的焦虑水平异常高。这可能是由于我作为青少年经历食道炎带来的重大痛苦,这是大多数年轻人没有经历过的。
当我与朋友分享你现在正在阅读的这篇文章时,我开玩笑说它不仅不会说服大多数有效利他主义者,而且可能会产生负面说服力,也就是说,它会让一些人更倾向于否定恤苦伦理学,因为我承认我对恤苦伦理学的很多动机是基于我特有的心理学而不是抽象论证。要记住的一点是,实际上有许多支持恤苦伦理学的抽象论证,包括"纯粹强度"之外的各种支持恤苦伦理学的直觉。所以即使你认为我以情感驱动的伦理学方法是一个不可接受的起点,这也不应该让你对整体的恤苦伦理学感到气馁。我大多数支持恤苦伦理学的同事比我更受论证驱动。
我认为一些女性主义伦理学家指出,"男性化"的道德倾向于关注抽象的正义原则,而"女性化"的道德可能更多地是关于情感关怀。(我没有读过这些女性主义作者,他们也有很多批评者,包括其他女性主义者。)这种区别在某种程度上反映了我如何看待我的伦理学与我许多同事的伦理学。另一方面,我觉得很多道德论证最终也归结为情感。两个人可以阅读相同的支持恤苦伦理学的论证,但一个人可能完全被说服,而另一个人仍然无动于衷。也许这可以用这两个人早年接触的其他哲学论证的差异来解释。但我怀疑很大一部分差异最终归结为心理因素,比如情感和认知风格的差异。
我觉得我对我的伦理学的描述旨在尽可能诚实而不是尽可能有说服力,就像:"这里是我持有我所持有的道德观点的实际原因,尽我所能内省。"相比之下,基于抽象理由的论证感觉更像是一种(温和的)战争,你发射论证导弹试图摧毁替代观点并捍卫你自己的观点。这种试图说服他人接受你的观点的尝试可能是道德推理最初产生的原因?告诉某人"做X有道德理由"比"我情感上想要你做X"更有说服力。无论如何,我也非常重视推理,并愿意用它得出一些相当奇怪的结论。但我只会得出我的情感感到舒服的结论。而我的情感反对为了没有人需要体验的超级幸福而允许更多折磨的想法。
我的伦理学方法是自私的吗?
对我的道德观点的一个回应可能是,它过于关注我自己的情感,而不是那些我试图帮助的人的利益。例如,这些批评者可能会说,问题不在于我的大脑在思考极端痛苦时是否有强烈的情感反应;重要的是受苦者有极端的情感反应。同样,这些批评者可能会争辩说,我的大脑是否强烈地被激励创造极端幸福并不重要;重要的是极度幸福的主体自己会对被带入存在感到极度感激。如果利他主义是关于以他们想要被对待的方式对待他人,那么我如何证明优先减少极端痛苦而不是创造极端幸福是正当的?(多年来,我至少从三个不同的朋友那里听到过这种论点。)
一个可能的回答是,如果我们不创造全新的超级幸福的后人类,我们本可以创造的主体将不会存在,所以我们不创造它们并没有违背它们的偏好。请注意,这种以"避免受挫的偏好"为框架的说法已经假设了一种关注负面价值的道德观,比如可能是负面偏好功利主义。我发现减少偏好受挫比创造新的偏好只是为了满足它们(远远)更重要,这是另一个支持恤苦伦理学的论点。然而,我可以想象一些人会觉得创造满足的偏好而不仅仅是避免不满意的偏好应该是利他主义的一部分。
我会做出的第二个回答是,即使我们确实给予新创造的超级幸福存在的感激一些权重,我们也必须决定如何权衡这一点与极度痛苦中的存在者希望他们的心理状态停止的偏好。当不同的主体有不同的效用函数时,没有"正确"的方法来比较这些效用函数的大小。例如,没有唯一的方法来比较一只被折磨的动物停止疼痛的偏好强度与一个幸福的人支持她当前占据的心理状态的偏好强度。鉴于这些比较本身就存在固有的任意性,我选择更关注那些希望避免极端痛苦的人(Tomasik "Does Negative ...")。
第三,假设我们忽略上述两个回答,以及可能被提出来为我的伦理学不自私辩护的任何其他原则性论点。即使我的伦理学有点"自私",我也可以接受。如果你认为这听起来很可怕,请考虑以下思想实验。
99.99%的回形针制造者
假设太空殖民和长期未来无关紧要,利他主义影响是关于未来几年地球上发生的事情。(例如,如果我们在一个即将结束的模拟中,这就是真的。这个规定确保了各种类型生物的数量不能改变太多。)想象只有0.01%的地球上有意识的生物能够感受幸福和痛苦,这些生物主要想避免极端痛苦。同时,地球上其他99.99%的有意识生物是非快感的"回形针制造者",即不感受幸福或痛苦但仍然有极强欲望创造更多回形针的主体。当这些主体创造回形针的偏好受挫时,他们并不感到不好;他们只是寻求避免再次受挫的方法。最后,假设我们有一个开关,向下拉会减少极端痛苦,向上推会创造回形针。
如果利他主义是关于以他们想要被帮助的方式帮助其他主体,那么似乎我们应该向上推开关创造更多回形针。这更符合几乎所有存在的有意识存在的偏好。我确实对回形针制造者及其对世界上有更多回形针的强烈欲望感到一些同情。如果我可以推动一个开关创造回形针而没有任何机会成本,我会这样做。然而,如果创造回形针意味着允许更多极端痛苦继续存在,我将不得不向下拉开关以防止极端痛苦。我可能会说:"对不起,回形针制造者...但也不是那么抱歉。我知道你们非常关心那些能把纸张固定在一起的闪亮物体,但我个人更强烈地认同减少极端痛苦的紧迫性。我不会成为多数意见的奴隶,做多数人碰巧喜欢的任何事。我会给予多数人的观点一些权重,但最终我会专注于做最能打动我心弦的事。如果你想把这称为'自私',那就这样吧。"
你的大脑附加到"利他主义"概念上的温暖光环是基于这样一个事实:在我们自己的世界中,利他主义往往意味着以情感上引起你共鸣的方式帮助其他人类。如果你被传送到99.99%回形针制造者的世界,你对"利他主义"这个想法的反应可能会像:"呃,我必须创造更多这些毫无意义的回形针。这太糟糕了。"如果你与显示感激迹象的回形针制造者有愉快的社交互动(尽管他们根据假设实际上不会对你的工作感到任何幸福),你可能会开始对回形针生产感到更有好感。然而,让我们想象一下,回形针制造者尽管有极其强烈的偏好,但出于某种原因永远无法向人类展示这些偏好,也许是因为回形针制造者生活在地下深处的洞穴中,无法与地表世界交流。在这种情况下,创造回形针的唯一理由将是真正关心对他们利他,而不是寻求社会认可。
所有这些与超级幸福的类比是,相对于我当前的情感,创造超级幸福对我来说感觉更像创造回形针,而不是减少极端痛苦。我对超级幸福的关心比对回形针多一点,因为我是一个在某种程度上欣赏幸福的人类。但与极端痛苦相比,超级幸福似乎几乎是轻浮的。我对那些不会体验到对他们幸福存在的巨大感激的存在感到有点抱歉...但还不足以允许额外的折磨。
另外,请注意,如果超级幸福的后人类永远不存在,他们就不会有受挫的偏好。相比之下,我例子中的回形针制造者确实存在并确实有受挫的偏好,尽管他们不会因此经历快感痛苦(假设受挫的偏好本身在某种程度上不算作快感痛苦)。我认为偏好受挫在某种程度上是不好的,足够多的偏好受挫可能会超过快感痛苦,所以我甚至可能会说,足够多的非快感回形针制造者的偏好受挫会比一些中等强度的快感痛苦更糟糕。但我肯定不会说一个具有极其强烈的非快感偏好要更多回形针的回形针制造者应该得到与一个具有极其强烈的反对痛苦偏好的人一样多的道德权重。我在情感上对给定偏好的共鸣程度很重要。
致谢
这篇文章源于与Winston Oswald-Drummond、Anthony DiGiovanni、Emery Cooper、Magnus Vinding、Tobias Baumann和其他人的讨论。