引言
以下是我对各种命题的信念和道德价值观的简要总结。主题包括哲学、物理学、通用人工智能和动物福利。其中一些问题来自PhilPapers调查。有时我会链接到进一步论证这些信念的文章。即使我没有花时间为某个信念辩护,我认为分享我对它的主观概率是一种有效的信息交流方式。一个人对某个命题的信念可能比任何单一的客观论点更具信息量,因为概率评估汇集了许多事实、直觉和启发式方法。
虽然本文中的一些概率是经过仔细思考的结果,但大多数数字只是对一些模糊命题的快速直觉猜测。我使用数字只是因为它们比"可能"或"不太可能"这样的词稍微更具体。我的数字不应被理解为暗示任何精确度或任何比"嗯,这个概率似乎能很好地表达我当前的直觉..."更复杂的潜在方法。
Pablo Stafforini写了他自己版本的这篇文章。
注意:在本文中,"造成净痛苦"指"造成的痛苦多于防止的痛苦",反之亦然。例如,一个行为造成1单位痛苦并防止4单位其他痛苦,就防止了3单位净痛苦。我不是指幸福减去痛苦的净平衡。净痛苦是负向功利主义评估行为的相关量;对负向功利主义者来说,如果一个行为防止了净痛苦,那么它就是好的。
信念
信念 | 概率 |
---|---|
"审美价值:客观还是主观?"答案:主观 | 99.5% |
"抽象对象:柏拉图主义还是唯名论?"答案:唯名论 | 99% |
关于自由意志的相容论 | 98% |
道德反实在论 | 98% |
通用人工智能(AGI)原则上是可能的 | 98% |
如果没有其他重大干扰文明的情况发生,人类最终会建造人类级别的AGI | 80% |
如果发生人类启发的太空殖民,它将造成的痛苦多于防止的痛苦 | 72% |
地球最终将被某种单一实体控制 | 72% |
缓慢的AGI起飞 | 70% |
时间哲学中的永恒主义 | 70% |
关于意识的A型物理主义 | 69% |
稀有地球解释费米悖论 | 67% |
在人类级别AGI建成至少10年前,关于AGI风险的辩论将像2015年的全球变暖一样主流 | 67% |
假设人类会建造AGI,第一个人类级别的AGI将由政府建造 | 62% |
到2100年,如果生物人类仍然存在,大多数人会认为工厂化养殖是过去的一大罪恶 | 60% |
基础研究所减少了远期未来的净痛苦 | 58% |
机器智能研究所减少了远期未来的净痛苦 | 53% |
选举更多自由派政治家减少了远期未来的净痛苦 | 52% |
人类控制的AGI预期会导致比不受控制的AGI更少的痛苦 | 52% |
气候变化将造成的痛苦多于防止的痛苦 | 50% |
总的来说,有效利他主义运动减少而不是增加了远期未来的总痛苦(不计算幸福)a | 50% |
某些哲学问题的认知封闭性 | 50% |
更快的技术创新增加了远期未来的净痛苦 | 50% |
农作物种植防止了净痛苦 | 50% |
假设政府会建造第一个人类级别的AGI,它将是美国(而不是中国等) | 50% |
地球起源的智能将殖民整个银河系(忽略人类中心论证) | 50% |
更快的经济增长将在远期未来造成净痛苦 | 47% |
模态实在论 | 40% |
量子力学的多世界解释(或近亲) | 40%b |
物理学的本质是离散/数字的而不是连续的 | 40% |
宇宙/多元宇宙是有限的 | 37% |
假设两者都可能建造,全脑仿真将先于从头开始的AGI出现 | 30%c |
在人类级别AGI出现之前将形成一个完整的世界政府 | 25% |
到2100年,野生动物痛苦将成为一个主流道德问题,假设生物人类仍然存在 | 15% |
人类将在数百万年内因AGI以外的某种原因灭绝 | 5%d |
假设AGI被建造(不包括其他价值学习方法和其他机器伦理提案),一个非常接近CEV的设计将在人类的AGI中实施 | 0.5% |
价值观
虽然我是道德反实在论者,但我发现道德不确定性的议会模型有助于思考我持有的不同且不相容的价值观。人们也可以考虑每个价值观控制的资源(时间、金钱、社会资本)比例。我的道德议会中相当大一部分是自私的,即使理论上我更愿意完全利他。在我议会的利他部分中,我的价值观大致如下:
价值体系 | 道德议会比例 |
---|---|
专注于极端痛苦的负向功利主义 | 90% |
其他价值的伦理多元主义(幸福、爱、友谊、知识、成就、多样性、回形针等主体关心的事物) | 10% |
然而,就像大多数人一样,我的道德有时可能是软弱的,在特定问题上可能会有随机的奇想。我也可能在后果主义之上有一些义务论的附加约束。
虽然我认为高层次的道德目标应该基于功利主义,但我的直觉是,一旦你向另一个人做出了庄严的承诺或建立了信任的友谊/关系,你就应该在那个背景下大致按照义务论行事("目的不能证明手段的正当性")。在情感层面,这种义务论直觉感觉像是一种"纯粹"的道德价值,尽管它也得到了复杂的后果主义考虑的支持。没有人是完美的,但如果你经常故意违背人们的信任,你可能会获得不值得信任的名声,从而长期失去信任关系的好处。
什么样的痛苦?
最重要的痛苦类型是... | 道德议会比例 |
---|---|
快感体验 | 70% |
偏好受挫 | 30% |
这一节讨论了我在不同抽象层次上对痛苦的关心程度。
我的负向功利主义直觉倾向于一种"阈值"观点,认为小的日常痛苦并不真正重要,但极端痛苦(例如,在铜牛中燃烧或在有意识的情况下被捕食者开膛破肚)是可怕的,任何数量的快乐都无法抵消,尽管它们可以相互比较。我不知道我会如何回答"酷刑vs灰尘斑点"的困境,但这个问题对实际情况并不那么重要。
我大致根据分析功能主义来评估主体的意识程度,即关注系统做什么,而不是与其理想化计算无关的其他因素,比如它由什么构成或运行得多快。话虽如此,我保留在某种程度上关心系统非功能部分的权利。例如,我可能会给一台实现给定子程序的巨大计算机比给一台实现完全相同子程序的微小计算机更大的道德权重。
按神经元数量权衡动物
我觉得一个有N个神经元的动物的痛苦的道德恶劣程度大致与N2/5成正比,这是基于我对不同类型动物的关心程度的粗略插值。按照这个标准,并基于维基百科的神经元数量,一个人类以某种相对于生物体的强度所经历的痛苦,大约是一只老鼠以可比较的相对于生物体的强度所经历的痛苦的11倍,是一只果蝇的240倍。请注意,这并不导致人类中心主义。防止11只老鼠或240只果蝇遭受可怕的痛苦可能比防止一个人遭受同样的痛苦要容易得多。例如,考虑到在一些建筑物中,在一个夏天的过程中,可能会有几十只老鼠被杀死,而数百只果蝇可能被压碎、溺死或毒死。
我对N的确切指数的直觉随时间变化很大。有时我使用N1/2、N2/3,甚至可能只是N来权衡不同的动物。接近1的指数可以通过不希望微小的无脊椎动物在道德计算中完全压倒所有其他动物来证明(Shulman 2015),尽管这也可以通过使用道德权重作为N的分段函数来实现,例如在哺乳动物集合内使用一个小指数,在昆虫集合内使用另一个小指数,但在哺乳动物和昆虫之间有一个大差距。
脚注
- 为什么这个数字不更高?一个原因是它不接近100%,因为预测一个人行为的长期影响是极其困难的。即使有效利他主义运动完全专注于减少痛苦,我在这里的概率可能也不会超过60-65%左右。然而,我的概率是50%而不是更高的原因是因为有效利他主义运动的许多部分与减少痛苦的目标相悖。例如,与世界上大多数人不同,许多有效利他主义者认为确保人类用天文数量的感知填满宇宙是极其重要的。但创造天文数量的感知在预期中意味着创造天文数量的痛苦,特别是如果不完全富有同情心的价值观控制未来。话虽如此,许多有效利他主义项目旨在改善天文数量感知未来的质量(假设它们真的发生),这些努力大概会减少预期的痛苦。
古典功利主义等最大化意识形态,在有效利他主义者中比其他社会群体更常见,似乎比常识道德更愿意承担巨大的道德风险并付出巨大的道德代价,以创造尽可能多的幸福体验。如果可能的话,这些意识形态也可能旨在最大化新宇宙的创造。诸如此类。当然,一些不受控制的AI结果也会导致狂热的最大化目标,其中一些可能会造成比古典功利主义更多的痛苦,而有效利他主义可能有助于减少这种AI结果的风险。 (返回)
- 一位朋友问我为什么对多世界解释如此有信心。主要原因是我所知道的几乎所有写过这个话题的人都接受它:Sean Carroll、Max Tegmark、Scott Aaronson、David Deutsch、David Wallace、David Pearce、Gary Drescher、Eliezer Yudkowsky等。其次,与哥本哈根或玻姆解释不同,它不引入额外的形式主义。我倾向于按字面意思接受简单的数学,稍后再担心哲学;这类似于我对物理主义和意识的看法。我对多世界解释的许多方面仍然感到困惑。例如,如果我们摒弃人类中心主义,我不清楚如何解释测度,我也不知道如何看待首选基底问题。我保持对多世界解释的不确定性的主要原因不是因为我认为哥本哈根或玻姆解释可能是正确的,而是因为可能完全是其他东西是正确的。如果那个其他东西最终是多世界解释的扩展或小修改,我认为这是我认为多世界解释是正确的概率的一部分。我将"多世界解释是错误的"解释为意味着与多世界解释完全不同的东西是正确的。我对一致历史解释理解得不够好,但它似乎是一个有前途的姐妹替代方案。 (返回)
- 我以前给大脑仿真的概率稍高一些。在了解更多神经科学知识后,包括对C. elegans连接组的映射,我有所下调。McCulloch–Pitts对神经元的描述太简单了,忽略了神经元内部的大量活动,以及复杂的化学信号网络、RNA转录等。要理解这一点,可以考虑单细胞生物的令人印象深刻的能力,它们完全没有神经元。
模拟神经系统的困难提高了我对AGI整体难度的估计,无论是从头开始还是仿真。但人类似乎在开发有用的软件系统方面做得不错,而不需要逆向工程令人惊讶的复杂的生物学混乱,这表明从头开始的AGI可能会更容易。据我所知,大多数软件创新来自人们提出自己的想法——无论是通过理论洞察还是试错——而较少的发现严重依赖生物学启发?Tyler (2009):
工程师们并不是通过扫描和复制鸟类来学习如何飞行的。自然可能提供了概念证明和灵感 - 但它并没有提供工程师实际使用的细节。鸟类与螺旋桨驱动的飞机、喷气式飞机或直升机并不相似。
这个论点适用于许多领域。水过滤器不是扫描的肾脏。胡佛大坝不是海狸大坝的扫描。太阳能电池板与树叶并不相似。人类挖掘的方式与鼹鼠不同。潜水艇与鱼类并不相似。从这个角度来看,如果机器智能与人类智能非常相似,那将是非常奇怪的。
现在在机器学习中突出的人工神经网络当然最初是受神经科学启发的[...]。虽然神经科学继续发挥作用[...],但许多主要发展是由对高效优化数学的洞察引导的,而不是神经科学发现[...]。
- 关于这个估计的讨论在这里。 (返回)