摘要
旨在减少痛苦的利他主义者应该专注于明确的短期避免痛苦的方法,还是专注于明确优化以使人类的长期未来朝更人道的方向发展的项目?这两种努力都非常值得。天真的期望值计算可能会倾向于假设远期工作显然更优,但有许多启发式原因表明情况可能并非如此。总的来说,从冷静计算的角度来看,像基础研究所(Foundational Research Institute)这样有意探索影响减少痛苦努力优先事项的重大问题的组织,可能比像人道屠宰协会(Humane Slaughter Association)这样在短期内帮助数百万动物的慈善机构具有更高的预期收益,但这远非显而易见。此外,我感到有"精神"需求去做一些工作来减少短期内明显的酷刑级别的痛苦。
注:大多数其他作者在讨论我在本文中探讨的话题时,都集中在"减少存在风险"的工作与国际援助等更主流事业之间的对比。尽管我借鉴了这些文献,但当我在本文中谈到长期减少痛苦的工作时,我并不是指通过预防生物、纳米、小行星等灾难来降低灭绝风险,因为我担心这种工作可能会通过提高太空殖民的可能性而增加净痛苦,这将使痛苦相对于我们在地球上看到的情况呈天文数字级倍增。相反,我心目中的远期工作旨在将未来引向更人道的方向,而不影响未来存在的概率。考虑到失控的人工智能(AI)可能会殖民太空,我不会将对抗"AI风险"的工作与其他类型的灭绝风险工作归为一类,与其他风险不同,我认为减少AI风险的努力很可能会减少预期的净痛苦。
目录
引言
大多数关心减少世界痛苦的人都专注于短期:以各种方式改善当前人类和动物的状况。在这些利他主义者中,对于解决社会问题的正确抽象层次存在分歧,一些人认为短期方法是"权宜之计",没有触及根本原因,而另一些人则认为受激进哲学启发的更广泛努力往往要么无法实现任何目标,要么最终会造成自身的危害(例如共产主义)。
一些有效利他主义者在是否应该优化短期还是长期的问题上采取了特别大胆的立场。他们指出,远期未来可能包含大量的数字生物(比如说,相当于1038人类至少生活数十亿年),这意味着可能存在巨大数量的未来痛苦。即使我们只有微小的机会通过我们的努力来减少一些痛苦,尝试这样做可能在重要性上压倒性地主导短期慈善事业。
本文批评了远期未来具有主导重要性的论点。最终,我怀疑针对远期未来的行动确实在期望值上占主导地位,但这必须与反对追求不切实际目标的强大启发法以及帮助那些在当前明显可以预防的痛苦中的人的强烈"精神"冲动进行权衡。
论点概述
专注于短期的慈善机构的一个典型例子是人道屠宰协会(HSA),它在未来几十年内减少数百万动物的屠宰痛苦,但并不明确针对长期结果。对减少痛苦者来说,一个典型的长期慈善机构是基础研究所(FRI),它探索可能改变游戏规则的洞见,了解利他主义者应该如何塑造人类的未来轨迹。总的来说,面向未来的工作往往涉及大量哲学和多学科的广泛探索,因为改善远期未来是一个比短期减少痛苦更困难的问题,因此需要更全面的分析。[完全披露:我帮助创建了FRI,而我只是HSA的支持者。]
以下是一个常见论点的概述,说明为什么远期未来应该主导利他主义计算。假设我们在决定选择一个专注于减少短期痛苦的慈善机构ST和一个专注于长期的慈善机构LT之间。它们的预期影响是预期短期和长期效果的总和。假设LT在推动远期未来朝更好方向发展方面的效率比ST高出1%。为了使论点更保守,假设LT没有短期减少痛苦的影响。那么
ST的期望值 = (预期减少的短期痛苦) + (预期减少的长期痛苦)
= (最多帮助约数十亿动物) + (小乘数) * (至少1038未来生物得到帮助 * 1010年)
而
LT的期望值 = (预期减少的短期痛苦) + (预期减少的长期痛苦)
= 0 + (小乘数) * (1.01表示效率高1%) * (至少1038未来生物 * 1010年)。
因此,只要"小乘数"因子大于~10-37,LT就具有更高的期望值。
乘数正确地折扣了针对远期未来的努力,原因有几个,包括
- 可能不会有远期未来或在其中不会创造大量有情感的生命
- 人择论证反对我们占据如此特权的地位来影响银河系的未来
- 我们现在采取的任何努力来推动未来轨迹的可能性将被进化的收敛力量或随机噪声所抵消
- 未来大部分可预防的痛苦可能已经默认在可行的情况下被预防,不留给我们的利他主义发挥影响的空间
- 即使其他担忧都不适用,也很难知道如何将未来推向更好的方向。
远期未来主导论点认为,这些复杂因素足够小,即使加在一起,也不会使"小乘数"小于10-37。
远期未来论点可以进一步加强,注意到未来的后人类创造无限痛苦的可能性是非零的,因此任何非零的改善防止这种不良结果的概率都会主导其他任何事情。
反对远期主导地位的薄弱论点
本节回顾了一些薄弱论点,反对远期未来主导的观点。它特别关注那些最关心减少痛苦的人的情况。
序列思维vs聚类思维
远期未来论点很有说服力,我认为它最可能出错的地方是在基本层面上,即最大化涉及微小概率的巨大回报的赌博的期望值的方法并不是做出选择的最有效方式。这是Holden Karnofsky的主要回应。Karnofsky建议期望值方法代表"序列思维",与人们通常使用的更非正式、常识性的"聚类思维"方法形成对比。目前还不清楚哪种认识论框架更适合利他主义优先排序。当然,聚类思维并不意味着专注于短期更好;相反,它表明远期未来不能仅仅因其巨大规模而自动主导计算。
反狂热主义启发法
序列思维经常陷入这样的情况:天文数字级回报的低概率似乎主导了计算。这不仅偶尔发生,而且经常发生,导致结论不断反复。即使你认为你已经达到了最后的"关键考虑"(用Nick Bostrom的术语),你可能还没有,你的结论可能会随着进一步探索而再次改变。这种情况在我身上一次又一次地发生。
处理狂热主义困难至少有两种主要方法:
- 采用稳定的启发法,在边缘可能性似乎在期望值上占主导地位时防止狂热主义。
- 避免对任何给定的狂热假设采取鲁莽行动,而是寻求建立组织、认识论和动机能力,以更全面地探索重要问题。这包括将人工智能(AI)推向更好的方向,使其在面对这类困境时更有可能按我们的意图行事。
#1采用聚类思维方法。#2即使使用序列思维也有意义,因为它认识到了进一步信息的期望值以及为我们更明智的后代准备基础以将分析提升到下一个层次的期望值。
我认为#2基本上是正确的,但#1也可能是一个有用的护栏。这并不是说狂热的可能性永远不应该主导我们的选择,但我们应该等到对我们的结论不会改变有高度信心后,才将我们的努力投入其中。
我过去认为大多数人不"理解"理性,因此忽视了高风险、高回报的投机可能性。但随着年龄的增长,我开始意识到常识比我想象的更有道理。这种观点因我对人工智能中的启发法的更多欣赏而得到加强。例如,复杂的GOFAI导航计算往往比无模型、基于行为的机器人表现更差,至少在没有天文数字级计算能力的情况下是如此。同样,对于有限理性的人类来说,启发法可能在大多数时候都优于复杂的逻辑推理链。从长远来看,复杂的推理是一个值得追求的目标,但假装我们现在就能严格地做到这一点是没有帮助的。
人择惩罚可能与未来规模成线性关系
大多数关于为什么我们可能不会对远期未来产生压倒性影响的人择论证预测,随着远期未来规模的增加,人择惩罚也会增加。事实上,这种类型的人择惩罚对于对抗无限赌博的狂热主义是必要的。如果人择惩罚与未来规模成比例增加(例如在模拟论证中),那么远期未来就不再明显占主导地位了。这似乎是在期望值计算范围内反对远期未来狂热主义的最强论点。有关这种方法的辩论,请参见"帕斯卡的麻瓜"。
然而,如果对人择推理的正确解释存在任何非微小的不确定性,并且如果将这种不确定性视为常规概率,那么这一点就失效了。事实上,常识告诉我们,我们确实处于可能对我们所在宇宙区域未来数十亿年产生天文数字级影响的地位。似乎很难声称这种常识观点的概率实际上小于~10-30或避免远期未来主导所需的任何数值。
不过,这个反论点本身就是一种狂热的赌博,这表明我们可能正在触及期望值计算可以合理应用的极限。
行动相关性
我们的选择对其他情境中的其他主体的选择有逻辑含义,这取决于我们的决策算法与他们的决策算法之间的相关程度。因此,我们选择的价值不仅来自其在时空连续性反响方面的因果后果,还来自它们对一般选择的逻辑含义。思考这一点的一种方式是根据绝对命令:如果你可以在整个宇宙中固定一个算法以产生某种输出,哪种输出会产生最好的后果?
远期未来推测的逻辑含义是否比短期帮助的逻辑含义更好或更差并不明显。steven0461这样表述:"问题在于,在一个天文规模的宇宙中,一个人是否可以通过控制可能多次存在的结构获得更多价值,而不是通过控制整体的极小概率。"有关这一点的更多内容,请参见此处。
流通效应
远期未来论点的一个稻草人版本可能声称,远期未来组织自动主导短期组织,因为远期未来可能如此巨大。这忽视了所有慈善机构对人类轨迹都有非微不足道影响的现实——有时被称为"流通效应"的副作用。因此,要证明一个远期未来慈善机构更好,需要表明其对长期结果的流通效应比短期慈善机构的(可能是无意的)流通效应更好。
话虽如此,先验地看来,一个针对远期未来的组织应该比一个针对近期的组织对远期未来有更好的影响,因为远期未来组织是考虑到远期未来而进行优化的。steven0461在比较从事国际援助的慈善机构与AI风险时提出了这一点:"如果拯救第三世界人民生命的政策也恰好是最大化安全的政策,那将是一个相当大的巧合。"然而,我再次急于补充,我可能不支持许多类型的"存在风险"工作(例如,减少生物或纳米风险),因为它们可能通过使太空殖民更有可能而增加未来的痛苦。
作为对"最佳短期慈善机构也是最佳长期慈善机构将是巧合"这一论点的反驳,我们可以注意到,短期慈善机构数量更多,因此可能可以找到一个短期慈善机构,其工作足够有效,以至于其流通效应超过了明确的长期慈善机构。
无论如何,所有慈善机构都有流通效应的观察至少表明,远期未来慈善机构并不以数百万或数十亿倍的优势主导短期慈善机构,甚至可能不会以数千倍的优势主导。
广泛的市场效率
随着年龄的增长,我越来越佩服其他人的才能。对于大多数与痛苦相关的事业,都有人在从事。Karnofsky称这一发现为"广泛的市场效率"。一些例子:
- 2012年,我认为未来数字生物的痛苦是一个被忽视的话题,并想知道讨论它是否可能具有高杠杆作用。当我更深入地研究这个领域时,我发现已经有许多关于人工痛苦这一一般主题的论文。通常它们关注类人或类动物生物,很少讨论更抽象的"痛苦子程序",但我预计这种情况只是时间问题。由于我们离创造天文数字级的痛苦子程序还很远,我认为至少有些人会及时关注这个问题。
- 直到2014年底,我认为塑造AI的轨迹可能是利他主义者推动的最重要领域之一。虽然我仍然认为这是正确的,但由于Bostrom的超级智能一书引发了对AI场景的爆炸性兴趣,紧迫性程度已大大降低。2015年1月,Elon Musk捐赠了1000万美元给未来生命研究所——可能超过了机器智能研究所在前十年收到的所有捐款总和。人类似乎正在觉醒认识到AI问题,这比最严重问题到来的时间提前了几十年。
- 对不确定减少痛苦的人是否应该传播对基础物理学的关注。
- 人择推理似乎对许多大局问题至关重要,但它已经是许多哲学家和物理学家以及LessWrong贡献者探索的领域。这项工作中的大部分即使没有利他主义者的资助也会进行。
- 对利他主义来说,仍然存在许多"未知的未知",特别是在物理学、数学、意识、形而上学、认识论和伦理学方面。但这些主题是广泛的,学者们已经在为它们做出贡献。我确实认为减少痛苦的人应该了解这些领域,以提取其中包含的洞见,因为许多想法并不广为人知,而那些了解它们的人往往没有强烈的利他主义倾向。将这些洞见提炼成更实用的行动建议是我的慈善机构FRI的主要目标。话虽如此,最好的洞见无论如何都会随着时间的推移传播到利他主义圈子,所以主要价值在于更早地告知和重新定向利他主义的优先事项。
- 大多数其他利他主义重点领域甚至更加根深蒂固,如国际合作、良好治理、透明度、人权和动物权利以及推进哲学复杂性。
我认为一些哲学是毫无意义的,一些是混乱的。但相当一部分哲学家正在以建设性的方式讨论重要的基础问题,涉及人择学、物理哲学、量子力学解释、计算哲学、功能主义心灵哲学、关于模态实在论的问题、分歧认识论以及一些道德哲学。如果这些问题对远期未来像看起来那样重要,这是否意味着,比如说,资助一个哲学研究所可能比防止短期痛苦更有价值?从直觉上看并非如此;认为减少世界痛苦的最佳方式是资助象牙塔中的抽象哲学论文,这感觉很奇怪。当然,我认为FRI可能比一般的哲学研究所有价值得多,因为FRI研究哲学发现如何影响减少痛苦的最佳策略。但在日常工作中,FRI的很多工作看起来像普通哲学,相反,一些非FRI哲学家已经在思考他们想法的伦理含义。
我认为还没有像应该的那样成为主流的几个问题是
- 由自然原因造成的野生动物痛苦的重要性
- 昆虫痛苦的重要性,特别是在野外和其他地方
- 负向功利主义及其各种论点。
所有这些话题实际上都在学术界内外得到了一定程度的讨论,所以像上面引用的其他问题一样,它们并不是完全被忽视。但因为这些话题包含了一般哲学探索所缺乏的强烈道德声明,我认为利他主义者特别关注这些问题更为重要。先验地看,利他主义者推动探索聪明人无论如何都会因其纯粹有趣而研究的知识话题并不那么重要,尽管在实践中,对特别被忽视的话题可能有例外。
远期干预不仅对减少痛苦者有吸引力
与远期未来相关的大多数大局问题对许多不同的价值体系都很有趣,包括古典功利主义和其他形式的结果主义。因此,许多远期未来问题已经在一定程度上被那些不专注于减少痛苦的人探索。这至少应该让我们问一问,是否还有其他更专门针对减少痛苦者的干预措施。
当然,从事广泛感兴趣的问题通常是好的,因为如果每个人都试图优化他/她特定价值观的独特项目,那么在探索更广泛问题方面就会出现公地悲剧。然而,这并不总是正确的,正如下一节所解释的那样。
发现洞见可能以牺牲减少痛苦者为代价来帮助大多数人
大多数人希望传播生命,即使这样做会增加总痛苦。世界上的负向功利主义者要少得多。这意味着如果两个阵营在一个政策问题上针锋相对,并且每个阵营的效率都提高了一定程度,那么这种提升可能会使情况对负向功利主义者变得更糟,因为生命传播者的收益超过了负向功利主义者的收益。
这意味着有时,产生知识可能会伤害减少痛苦的人。我希望情况并非经常如此,我认为合作和声誉启发法通常倾向于分享洞见而不是不这样做。尽管如此,这种考虑确实降低了以研究为导向的工作的期望值。有关更多讨论,请参见"竞争主体共享信息的期望值"。
远期员工更昂贵
为专注于远期未来的慈善机构工作的人往往具有强大的数学/计算机能力。因为他们可以从事报酬丰厚的私营部门工作,所以雇用他们可能成本更高,如果他们足够利他,他们可能本来会赚很多钱并捐赠,而不是直接从事研究。因此,他们的总成本(工资+机会成本)可能略高于或高出许多倍于,比如说,动物福利组织的员工。这应该已经纳入慈善机构的每美元价值比较中,但我在这里的观点只是,在比较不同类型的慈善机构时,每美元价值并不等同于每位员工价值。
对有趣的知识性话题的偏好
我听说过这样的担忧:以哲学为导向的利他主义者专注于远期未来的推测,因为这些是有趣的知识性问题,相比之下,实际在短期内产生变化的琐碎细节则很无聊。我怀疑这对所有或甚至大多数远期未来利他主义者来说都不是真的,但它可能会影响一些人的感受。
如果我没有利他主义承诺,我可能会研究哲学或相关的理论主题,仅仅因为这些问题非常有趣。但当我也得出结论认为它们恰好是利他主义关注的最佳领域时,我应该对此持怀疑态度。当然,也有可能因为我发现这些主题有趣,它们构成了我的比较优势。相比之下,大多数人觉得大局问题太抽象。
对"酷炫"话题的偏好
一些利他主义者也可能被吸引到远期未来的推测中,因为这些问题往往更前沿和性感:AI、数字心智、技术政策、宇宙学等。相比之下,人道屠宰研究对大多数人来说听起来不那么酷。Peter Hurford称这种差异为"哇哦因素"偏见。
Hurford补充说,更酷的话题在有效利他主义者中具有更高的地位。但也许远期未来推测的这种更高地位是通过好的论点赢得的,在这种情况下,远期未来慈善机构的更高地位是对它们有利的证据。
年轻人的天真?
除了一些例外,许多倡导影响远期未来的利他主义者都很年轻——通常不到30岁,通常不到40岁。相比之下,其他事业的活动家往往更好地跨越年龄谱,尽管他们可能仍然也有偏向理想主义年轻人的倾向。
远期未来活动主义的年轻化可能是巧合。或者它可能是一个信号,表明这个运动正在开辟新的知识领域,而老一代人不愿意探索。但它也可能表明远期未来的利他主义者在某种程度上有些天真。我认为一些致力于塑造远期未来的人大大高估了自己在全球范围内的重要性。这是对他们整体认识论的一个小小的黄色警告标志。然而,这些观察也有许多例外。
短期工作不太可能适得其反
一般来说,我鼓励讨论新颖的、非主流的话题,因为这些似乎提供了最高的杠杆作用。传播一个非常规想法似乎比传播一个已经有些知名的想法更重要。然而,有时人们反对这种方法,因为担心如果一个想法太激进,它会吓跑人们远离更温和的立场。如果人们甚至不关心现在的生物动物,他们怎么能关心远期未来的数字动物的痛苦呢?虽然我对这一点并不特别担心,因为我通常与更具知识好奇心的受众交谈,但它可能对支持更短期的干预有一些微弱的力量,这些干预可能更主流。例如,HSA扩大人道屠宰的努力在约90%人口的眼中并不激进,实施这种改革有助于使动物福利更加主流,这是朝着对所有有情实体的伦理考虑迈出的第一步。
直觉检验
这可能是最强有力的观点:从直觉上看,在一个充满动物痛苦的世界里,减少痛苦者能做的最好的事情是探索那种对非利他主义者也有趣的深奥哲学,这说得通吗?最初的反应是:不,做哲学是一种分散注意力的做法,而不是真正动手去产生影响。这种观点似乎得到了我的一些朋友的认同,特别是那些为动物运动做更多实地工作的人。
当然,直觉反应往往是错误的,有一些非常令人信服的理由说明为什么应用哲学洞见可能总体上被减少痛苦的人过于忽视。直觉检验只是一个特别谨慎和怀疑的理由。
支持远期主导地位的薄弱论点
远期未来利他主义可以不仅仅基于序列思维进行辩护。以下是一些启发式的、聚类思维的论点。
事业灵活性
即使某个短期事业恰好对远期未来有强烈的流通效应,这也是偶然发生的。实际研究各种长期影响途径并在它们之间进行优化更为稳健。在最坏的情况下,长期分析只会收敛到原来的短期慈善机构。
话虽如此,短期关注的纪律可能有其自身的优点。例如,有效的短期项目在"现实世界"中取得更具体的结果。也许这比人们从扶手椅上估计的要有更多价值。(或者也许没有。)
更被忽视
短期关注的常识论点的另一面是,如果远期未来的努力有前景,它们可能非常有前景,因为未来传统上被忽视。大多数人似乎忽视远期未来,部分原因是他们不那么关心未来几代人,所以那些确实非常关心未来几代人的人可能会在面向未来的工作中发现更多低垂的果实。
范围忽视和风险规避
我们的判断往往受到范围忽视的偏见,这使我们对一点点短期痛苦减少感到满意,而不是大量预期的长期痛苦减少。范围忽视导致风险规避,因为我们希望有更高的概率产生一些差异,即使差异的期望值较低。远期未来的努力往往只有很小的机会实际产生可观的影响,而意外对远期未来产生负面影响的概率往往令人不安地接近50%。
当然,专注于短期的慈善机构也无法逃避远期未来活动主义的不确定性,因为它们的流通效应也会对未来轨迹产生一些影响。短期慈善机构可能对远期未来的影响较小,因此不确定性也较小,但如果是这样,那么它们的上行空间也相应较小。
猜测并非毫无用处
Hurford的一个论点反对投机性慈善机构,认为常识直觉在评估成本效益时往往表现不佳。这可能是,但只要直觉在先验概率相等的赌博中50.0000000001%的时间是正确的,49.9999999999%的时间是错误的,那么远期未来论点仍然可以成立,因为它由于其天文数字级的赌注而有很多缓冲来对抗微小的概率。
我的折衷立场
从冷静、"理性"的角度来看,远期未来工作的理由对我来说似乎更有力一些。这并不是一个板上钉钉的结论,因为即使远期未来可能在明确的期望值计算中胜出,辩论部分是关于认识论框架的,当使用各种类型的聚类思维时,短期工作往往可以胜出。
然而,这并不意味着我认为我们应该只关注远期未来。我的神经选民中的一部分强烈感觉,不努力减少短期内明显的痛苦(如通过推广人道屠宰)是错误的。这是一种非常强大的"精神"情感,这不是我想放弃的。相反,我的大脑中至少有两个不同的效用函数:一个愿意最大化远期未来推测的期望值,另一个需要防止短期内的酷刑级痛苦。
Eliezer Yudkowsky对情感方法有严厉的批评:
利他主义不是你从利他中获得的温暖模糊的感觉。如果你这样做是为了精神利益,那只不过是自私。主要的事情是帮助他人,无论采取什么手段。所以闭嘴,乘以吧!
我的大脑有很大一部分同意这一点。但也可以提出几个回应:
- 认识论:正如Karnofsky所说,期望值计算作为理性模型往往是有缺陷的。情况很少像哲学家的思想实验那样清晰。在现实世界中,如果你对一个听起来真的很疯狂的赌博感到不安,很可能实际上有什么地方出了问题。同样,如果你对功利主义显然赞同为了更大利益而撒谎和偷窃感到不安,那么你感受到了正确的情感,因为为了更大利益而撒谎和偷窃实际上考虑到所有因素是一个坏主意。情感往往体现了明确推理所缺乏的智慧。
- 伦理学:任何一套价值观在被推到逻辑极限时都显得荒谬。防止短期痛苦可能看起来站不住脚——毕竟,你似乎给予短期内预期的痛苦比长期内预期的痛苦更大的权重。但从抽象的角度来看,许多道德选择最终都同样"愚蠢"。将风险规避纳入一个人的内在价值观可以是一个合法的道德选择。
- 勤奋:短期和长期利他主义之间的竞争可以迫使长期项目保持在正轨上,而不是退化为只有乐趣的智力活动,回报不明确。
- 保持同情心:我对痛苦的同情感促使我在短期内为动物痛苦做些什么。我无法保持完全的同理心,同时公正地优化抽象的期望值计算。有些人可能会说这是放弃同情心的理由,但这是极其危险的,因为这样做,我很容易滑向一种美学动机的道德观,几乎没有受到同理心的启发——而这种观点很可能会增加痛苦。
我被他人正在忍受酷刑级痛苦的认知所困扰。处于极度痛苦中的人和动物的画面定义了我的人生目标,我必须对这样的痛苦做些什么。我发现许多"理性主义"有效利他主义者似乎不像我那样对他人的痛苦有同样程度的深刻情感痛苦,这让我感到不安。这并不是说他们一定应该这样,因为也许如果他们这样做,他们就无法像现在这样很好地闭嘴乘以。但许多一线动物活动家确实分享我对痛苦的恐惧感,这让我想知道我是否应该更倾向于他们的方向。
最终,我的立场是在我大脑的两个效用函数之间达成妥协:将一些金钱/时间捐赠给短期努力(HSA),一些捐赠给长期努力(FRI)。这本质上是Yudkowsky建议的"分别购买模糊和效用"。一些有效利他主义者(包括我以前的自己)喜欢抱怨在不同事业之间分割捐款通常是"不理性的",因为一种或另一种事业通常更好,所以应该得到所有的钱。但如果你有多个效用函数,分割是理性的。具体来说,我目前感到需要将至少~40%的资源用于短期努力,其余可以用于远期未来分析。
Carl Shulman建议对那些模糊感更依附于近期拯救人类生命的人采取类似的方法,比如通过捐赠给抗疟疾基金会(AMF):
AMF显然在短期内拯救生命。如果你给予这一点相当大的权重,而不是仅从"无处不在的视角"长期角度评估一切,那么未来人口压倒性重要,那么AMF显然是好的。它是一种有效的方式来帮助当今的穷人,不太可能成为使长期变得更糟的一种同样特殊的方式。如果你要建立一个投资组合,在许多世界观上表现良好或进行道德交易,它将是一个强有力的补充。
奥卡姆的想象剃刀
我无意冒犯任何特定的人,但我认为许多否认远期未来工作论点的人这样做是因为他们声称远期未来工作实际上并没有更高的期望值。通常,拒绝集中在知道我们的行动是好是坏的困难、我们的行动可能不会有任何持久影响的可能性,或者短期变化最终会对远期未来产生更大影响的假设上,因为它对主流社会更容易接受。所有这些都是重要的观点,在某些情况下,它们可能确实会削弱远期未来工作的重要性。但它们不是银弹,远期未来的理由不太可能被任何给定的反对意见完全击败。
相比之下,我的立场是,我承认远期未来论点的认识论力量,但保持对短期帮助的一些承诺作为内在的精神冲动。沿着奥卡姆的想象剃刀的思路,这使我能够避免基于情感拉力来阻止当前酷刑级痛苦而扭曲我对远期未来问题的信念。面对基于情感的认知失调,改变你的价值观往往比改变你的信念更好。
有界效用函数仍可能偏好远期
Carl Shulman指出,即使我们认为由于额外人口的边际道德权重递减,未来几代人的道德紧迫性较低,我们也应该认为现在的几代人相对于第一批人类或第一批动物的权重较低。因此,即使在对未来进行伦理折扣的观点下,远期未来论点可能仍然成立。
我有两个回应:
- 假设边际权重递减的观点是为了证明我们的直觉是正确的。它们的发展不是因为它们在抽象意义上有意义(除了可能强制无限和收敛)。因此,如果这些观点得出的结论与它们被设计用来得出的结论不同,那么它们就没有正常工作。它们可能被一种偏爱现在离我们近的生物而不是离某个智能生命在地球上的假设起点更近的生物的道德观所取代。
- 话虽如此,我认为我的"现在帮助动物"冲动可能——在这种原始情感可以被正确地视为正式理论的程度上——更好地被描述为风险/模糊性规避而不是对后来生物的边际权重递减。由于远期未来本质上更具风险性,Shulman的论点在这种情况下无法拯救它。
对特定慈善机构的应用
FRI和HSA如何比较?上述论点广泛适用于它们,但以下是一些额外的想法。
支持FRI的理由:
支持FRI的理由:- 由以减少痛苦为首要目标的人运营,因此FRI更有可能传播以减少痛苦为中心的价值观。
支持HSA的理由:
- 做一些令人印象深刻的"现实世界"工作。这表明HSA可能对远期未来也有重大影响,因为它正在实现具体的成就,而不仅仅是讨论想法。
- 员工年龄较大,因此可能更明智。
一个在某种程度上跨越短期与长期鸿沟的慈善机构是动物伦理(AE)。与HSA相比,它的优势在于推广关于野生动物痛苦的非主流想法,这对动物权利运动的未来非常重要。一个缺点是,像FRI一样,它主要占据思想领域,没有实现任何具体的政策变化。
我还应该补充说,HSA和AE是我觉得舒服支持的唯一两个动物慈善机构。这是因为我不确定素食主义是否能防止净动物痛苦,而且我担心一般的动物权利组织可能会增加对荒野保护的热情。更糟糕的是,一些动物慈善机构积极游说保护栖息地、重新引入捕食者等。
个性化问题
如果短期和长期慈善机构在相对价值上至少具有竞争力,那么你的个人才能、热情和兴趣可以帮助左右你将精力集中在哪里的决定。然而,这一观察并不是一张空白支票,声称仅仅因为你对某种类型的慈善机构有先入为主的偏见,它就更好;你的才能和偏好可以在某种程度上改变。
可选:我与这个话题的历史
我在2000年首次产生利他主义动机,在听了Ralph Nader的演讲之后。从一开始,我就对长期结果充满热情,部分原因是Nader强调大局变革:"系统性方法解决系统性不公正。"Nader作为绿党候选人后来作为独立候选人挑战两党政治制度,代表了一种长期赌博,以在未来产生重大变革。Granny D强调了这一点:
当我们进入这个伟大斗争时期,让我们愿意为长期收益而承受短期损失。这意味着我们必须投票支持我们的内心,让结果自然发生。[...]
不要把你的投票看作是对当前候选人的日间交易投资;为长期投票。投资于你国家的道德进步。
2004年,我写了一篇日记条目,"问题的主干"(第9页),鼓励长期而非短期利他主义。
直到2005年,我都是(误导性地)一个环保主义者,我更喜欢这个事业而不是短期帮助人类,因为我认为环境保护从长远来看会减少更多人类痛苦。(那时我还没有考虑到非人类动物。)应对气候变化是一个有趣的例子,它是主流利他主义中少数几个时间尺度超过未来几十年的领域之一。
直到2005年底,我才了解到天文数字级利他主义场景。因为我当时是一个相对简单的期望值最大化者,我很快得出结论,这些远期未来的推测确实主导了功利主义计算。从那以后,我一直相信类似的观点,但我立场的细微差别已经加深,我现在认为这个问题远不如我过去认为的那么明显。