摘要
注意:我现在可能不同意Nick Bostrom的自我抽样假设,这是本文的基础。关于替代方法,请参阅"无参考类的人类学"。
从表面上看,我们对遥远未来的影响似乎可能极其重大,因为我们有可能通过今天的行动影响到后来的大量心智。然而,如果你应用人类学推理,假设你是所有观察者中的随机观察者("普遍参考类"),那么末日论证表明你实际上不太可能产生巨大影响。恢复对未来的常识性看法的一个典型方法是修改你的参考类,使其不再是普遍的。自我指示假设或其他新颖的提议也可能提供解决方案。鉴于存在高度的模型不确定性,为了安全起见,继续行动如同未来可能极其重要是有意义的。
更新(2013年7月):"多个文明可能改变论证"一节解释了为什么末日推理实际上可能没有看起来那么有力。例如,在附录中,我讨论了在合理的参数设置下,比我们文明迄今为止长n倍的未来,即使在调整末日效应后,其相对于短期未来的预期重要性也可能约为n1/4。如果正确,这个论证会使本文中的一些其他推理无效。我的结论是,在这个话题的不确定性得到解决之前,总的来说,考虑我们倡导的事物的短期和长期影响似乎是个好主意,而不是假设未来总是占主导地位。话虽如此,长期未来在期望值上仍然可能更重要,特别是在我们考虑模型不确定性之后。
更新(2013年9月):我被告知,在一些社区中,Bostrom的SSSA不再是最先进的。它已被一种不同的人类学方法所取代,这种方法类似于"对你的精确副本进行SIA",这完全消除了末日论证。我还没有更详细地探讨这种方法。
目录
引言
"未来已不再是过去的模样。" --错误地归因于Yogi Berra
如果你问大多数科学家关于我们在宇宙历史中的位置,他们会告诉你,我们是迄今为止出生的大约1000亿人类中的一员。我们可能有一个漫长的未来,也可能很快就会自我毁灭。人类及其可能的后人类后代能够存活很长时间似乎并非不可想象。因此,考虑到我们的行动可能影响到多少未来的生命,我们现在为影响未来所做的事情似乎可能极其重要。
一些利他主义者采用这种推理方式,得出了我称之为"未来狂热主义"的结论,即塑造遥远的未来(例如,通过促进更好的价值观)在期望值上压倒性地比以更具体的方式减少短期痛苦(例如,减少地球上的野生动物痛苦)更重要。
人类学
这种对我们在地球起源生命历史中位置的天真看法是在考虑人类学偏见之前形成的。人类学中的一个标准原则是自我抽样假设(SSA):"在其他条件相同的情况下,观察者应该推理,就好像他们是从其参考类中所有实际存在的观察者(过去、现在和未来)中随机选择的。"哲学家Nick Bostrom正确地将其修改为强自我抽样假设,将"观察者"替换为"观察者时刻",因为个人身份是模糊的,你成为生命是两倍长或体验主观时间是两倍快的人的可能性是两倍。
目前尚不清楚什么才算是一个观察者。是所有有意识的心智,还是只有足够聪明到能思考人类学的心智?是所有足够聪明的心智,还是只有那些足够聪明的心智在实际思考人类学时?这些问题至关重要,但我现在不知道答案。
普遍参考类
对我来说,将你的参考类视为整个多元宇宙中所有观察者时刻似乎是直观的——Bostrom称之为"普遍参考类"。Bostrom本人拒绝这一点,因为它会导致看似疯狂的结论。他建议以合理的方式修改你的参考类,以避免这些悖论。正如我在本文末尾所解释的,通过这种方法可能避免末日论证。在这篇文章中,我假设普遍参考类,看看这会让我们在利他主义方面对未来有什么看法,同时牢记我使用这个参考类可能是错误的。
为什么我认为参考类应该是普遍的?任何其他参考类似乎都是通过添加信息而不更新它来"作弊"。让我解释一下。
人类学的工作原理如下。首先假设整个宇宙可能是什么样子。这些假设描述了宇宙的一切,包括每个心智的位置。在这个规范中,你唯一不知道的是你是这些心智中的哪一个。你是谁是一个进一步的证据,用于更新你对假设的概率评估。给定你是谁的假设的后验概率P(h|o)与假设的先验概率P(h)成正比,乘以预测你发现自己是谁的可能性P(o|h)。
例如,假设你不确定两个假设之间。在假设1(h1)中,宇宙由10个心智组成:9个人类和一个超智能的后人类AI。在假设2(h2)中,宇宙由100个心智组成:50个人类和50个超智能的后人类AI。仅基于你期望看到的物理、生物、社会进化等模型,你给P(h1) = P(h2) = 0.5。现在你了解到一个进一步的信息:你是一个人类,而不是后人类AI。这个额外的证据(o)更新了每个假设的概率。特别是,P(o|h1) = 0.9,P(o|h2) = 0.5,所以后验比P(h1|o)/P(h2|o) = 9/5。
我们可能还有更多信息。例如,假设你的名字是George——称这个额外的证据为g。假设h1说3个人类名叫George,而h2说25个人类名叫George。那么P(g|h1,o)=3/9,P(g|h2,o)=25/50。这导致我们进一步更新我们的概率,将原来的9/5比率乘以(3/9)/(25/50),得到最终比率6/5。我们也可以通过一次性考虑所有联合证据来得出这个结果:P(o,g|h1)=3/10,P(o,g|h2)=25/100,所以P(h1|o,g)/P(h2|o,g) = (3/10)/(25/100)=6/5。
但如果我们这样推理会发生什么:后人类AI与人类非常不同,所以我们不能把自己放在同一个参考类中。我们应该只考虑自己是人类中的随机样本。那么我们就会在上述计算中省略o证据。我们所拥有的只是以下内容:P(h1)=P(h2)=0.5,我们假设我们是人类,因为那是我们的参考类。然后P(g|h1)=3/9,P(g|h2)=25/50,所以后验比P(h1|g)/P(h2|g)=(3/9)/(25/50)=2/3。这与我们上面看到的6/5不同。事实上,从这一点我们会得出h2在证据面前更可能的结论,而从上面的分析中,我们看到h1在证据面前更可能。我们不能简单地因为不方便就省略部分更新。这说明了为什么我认为参考类必须是普遍的。
末日论证
假设普遍参考类,我将描述末日论证的标准版本。考虑两种情况。在"短命"情况下,人类只包含大约与我们迄今为止一样多的观察者时刻——称这个数量为X。在"长命"情况下,人类扩展到银河系,拥有比我们迄今为止多得多的观察者时刻。为了具体起见,假设是1000X。我们可以想象更多的可能性,但这两种足以说明正在发生的事情的机制,所以最好不要使分析复杂化。另外假设这些情况看起来同样合理,各有50%-50%的概率。即使你不做这个假设,论证仍然有效,但我试图最小化变量数量以提高直觉,牺牲了形式性。
我们似乎发现自己处于前X个观察者时刻之中。如果短命是真的,这并不奇怪——我们必然处于前X个观察者时刻之中。相比之下,如果长命是真的,那么这就相当奇怪,因为我们如此早期的概率只有1/1000。使用贝叶斯定理更新我们的50%-50%先验,短命vs长命的后验概率是1000/1001和1/1001。通常用贝叶斯因子来思考这一点更容易:长命现在比短命的可能性低1000倍。
多个文明可能改变论证
注意:本节包含一个新的认识,似乎推翻了本文的大部分内容。我还没有更新本文的其余部分来考虑这一点。
你可能试图用以下想法来逃避末日结论:"好吧,上述论证适用于我们只考虑一个文明的前景。但在整个宇宙中,可能存在许多文明。假设其中一个是短命的,另一个是长命的。因为长命的文明有更多的观察者时刻,所以我们先验上最有可能在那个文明中。然后即使我们因为如此早期而打折扣,我们在长命宇宙中的可能性仍然与在短命宇宙中一样大。另一种看待这个问题的方式是,短命文明有X个观察者时刻,而长命文明在开始时有X个观察者时刻,然后又有999X个。在短命文明中的概率是X/(X + 1000X) = 1/1001。在长命文明的前X个中的概率也是X/(X + 1000X) = 1/1001。"
这都是正确的,但它依赖于一个关键假设:存在一个短命文明和一个长命文明。但实际上,我们不知道有多少短命vs长命文明。我们对此有一些先验概率分布。特别是,假设有两个选项:"多长",其中50%是短命文明,50%是长命文明,以及"少长",其中长命文明比短命文明少1000倍。用"obs"表示我们观察到自己在前X个观察者时刻中。如果多长是真的,那么我们在前X个观察者时刻中的概率只有2X/(X + 1000X) = 2/1001,因为50%是短命的有一个X,50%是长命的前X也有一个X。也就是说,P(obs | 多长)=2/1001。相比之下,如果少长是真的,那么我们在前X个观察者时刻中的概率是(1000X + X)/(1000X + 1000X) = 1001/2000,因为对于每个长命文明(在前X中有X个观察者时刻,不在前X中有999X个),有1000个短命文明都有前X中的观察者时刻。所以P(obs | 少长) = 1001/2000。现在,给定我们的观察,我们自己在长命文明中的概率是
P(长命 | obs) = P(长命 | 多长, obs)P(多长 | obs) + P(长命 | 少长, obs)P(少长 | obs)
= P(长命 | 多长, obs)P(obs | 多长)P(多长)/P(obs) + P(长命 | 少长, obs)P(obs | 少长)P(少长)/P(obs)
= (1/2)(2/1001)(1/2)/P(obs) + (1/1001)(1001/2000)(1/2)/P(obs)。 (等式 *)
要计算P(obs):
P(obs) = P(obs | 多长)P(多长) + P(obs | 少长)P(少长)
= (2/1001)(1/2) + (1001/2000)(1/2)
= 0.2512。
将其代回(等式 *)得到P(长命 | obs)约为3/1000。所以与我们确定多长是真的情况不同,在这种情况下,我们仍然观察到末日论证发挥作用,降低了我们在长命文明中的可能性。顺便说一下,这种推理表明末日论证对费米悖论的回答是:大多数外星人早期就灭绝了(即少长是真的),因为如果他们没有灭绝,我们就会期望自己处于一个长命的外星文明中。
在"膨胀宇宙学的哲学含义"(第6节)中,Knobe、Olum和Vilenkin做了类似的区分。对于任何给定的长命文明比例f,我们自己处于其中的概率就是f,因为观察者数量的增加正好抵消了如此早期的概率减少。但观察到我们自己如此早期意味着我们对f可能是多少的信念向下调整,作者称之为"普遍末日",因为它表明在整个宇宙中,比我们想象的更少的文明是长命的。
但注意一些有趣的事情:在标准末日论证中,给定短命或长命文明的相等先验概率,处于长命文明中的后验概率约为1/1000,现在有多个文明,它约为3/1000(给定上述特定假设选择——并非一般情况)。直观地说,我们更有可能处于长命文明的原因是,当它们存在时,它们有大量观察者,所以先验上我们更有可能是其中之一。
在附录中,我进一步发展了这种推理,将其扩展到长命文明比例的连续概率分布情况。我在那里展示,如果我们对长命文明比例有均匀的概率分布,那么在观察到我们处于前X个观察者时刻后,处于短命vs长命文明的更新后的几率比只有约ln(1000)-1 ~= 6,而不是标准末日论证中的1000。对于假设大多数文明是短命的先验概率,后验几率比大于ln(1000)-1但仍小于1000,表明这种末日更新贝叶斯因子的次线性是稳健的。如果我的推理准确,这一发现使本文中假设文明长n倍的末日惩罚总是1/n的假设无效。如果我验证这是准确的,我将不得不更新我的结论。
模态实在论与末日。
在这篇文章的原始版本中,我声称"在模态实在论多元宇宙中,更直观的[S]SSA意味着SIA。"SIA是自我指示假设,大致说的是,相对于你给它分配的任何先验概率,观察者时刻数量是两倍的世界的可能性是两倍。虽然Carl Shulman后来反对我使用SIA术语的语义,但我陈述背后的直觉正是我在"多个文明可能改变论证"一节的第一段中阐述的:即如果你知道有一个短命文明和一个长命文明,那么给定你发现自己在前X个观察者时刻中,处于其中任何一个的后验概率是相同的,因为处于较长寿命的先验概率更高。较长寿命的先验概率更高的原因是,它包含的观察者时刻实际上存在于多元宇宙的某个地方,所以按观察者时刻数量加权,就像SIA对单一存在宇宙的情况所规定的那样,正是SSSA本身告诉我们在两个宇宙都实际存在时要做的。
如果你确切知道模态实在论多元宇宙中所有可能世界的真实度量,那么处于任何这些世界的先验概率将与世界的物理度量乘以它包含的观察者时刻数量成正比,这只是通过常规SSSA。但正如我们在ManyLong和FewLong假设之间的不确定性情况中看到的那样(即对真实模态实在论度量的不确定性),我们的人类学更新不再看起来像SIA;相反,大宇宙中巨大数量观察者的SIA类效应被减弱但没有完全消除。因此,对真实模态实在论度量的不确定性意味着模态实在论本身不能防止末日效应,尽管正如我们所看到的,相对于单一文明宇宙的情况,它可以减少这些效应。
对利他主义的影响
如果长命的可能性很小,这似乎会削弱我们可能对试图影响未来的狂热。很可能不会有一个未来让那种影响发挥作用。因此,例如,确保未来关心野生动物痛苦并避免传播它,相对于在近期减少地球上的野生动物痛苦而言,似乎不那么重要。
那么旨在改变未来人口规模而不是影响给定未来人口的行动呢?如果你采取一项旨在降低灭绝风险的行动,该行动似乎很可能失败,因为如果它很可能成功,这将意味着一个大未来的概率更高,在这种情况下,你不太可能如此早期。一项行动旨在增加的观察者时刻越多,它就越不可能成功。相反,旨在减少未来观察者时刻的行动有不错的前景,尽管当然任何特定的行动都不能保证一定会实现;可能的是,在某个时候,一个或另一个因素会切断未来的观察者时刻。
帕斯卡式回应
最大化期望值的利他主义者仍然可以对末日论证做出如下回应。即使长命的可能性比短命低1000倍,如果长命是真的,那么我的行动会影响1000倍的观察者时刻。因此,选择关注长期具有与选择关注短期相同的期望值,因为1000倍的影响正好抵消了1/1000的概率惩罚。
这种回应让人想起SIA,尽管并不等同于SIA。在末日论证的情况下,SIA说无论你怎么想,长命情景的可能性是你原本认为的1000倍,这平衡了因为如此早期而产生的1/1000惩罚。在帕斯卡式版本中,我们实际上并不认为长命文明的可能性高1000倍,但我们认为它重要1000倍。末日效应的抵消发生在期望值而不是概率上。
帕斯卡式回应的一个巨大问题是,即使在长命情况下未来包含1000倍的观察者时刻,我们减少痛苦的能力并不真的是1000倍。可能存在熵效应,使我们对越来越远的未来事件的影响力减弱。如果人类创造了一个保持目标的AI,那么这种熵减少的影响对于非常遥远的时间可能不会接近零,但它仍然应该低于我们现在的影响力,而且无论如何,目标保持的AI是否会被创造出来还远不确定。在试图影响未来时,存在更多的不确定性,以至于我们应该默认对我们在那里产生影响的能力施加一个大的非人类学概率惩罚。假设我们现在所做的事情有1%的概率可以可靠地以可预测的方式影响遥远的未来(这似乎不切实际地高,但仅作为说明)。那么如果我们致力于现在,我们会影响X个观察者时刻。如果我们致力于未来,我们可能会影响1000X * 1%,但只有1/1000的机会会有这样的遥远未来,所以总价值是0.01X。似乎由于对即时影响的更大确定性,我们应该致力于现在。
拯救未来狂热主义的人类学方法
1. 选择非普遍参考类
在开始时我假设了一个普遍参考类,说我们应该认为自己是所有观察者时刻的随机样本,而不仅仅是其中具有给定属性的一个子集。某物是否具有人类学权重的唯一相关特征是它是否是一个观察者;它是否是人类并不重要。
然而,如果你允许你的参考类比这更窄,你可以"欺骗"掉末日推理。例如,如果你的参考类只是"所有人类",那么你就有一个简单的解决末日论证的方法:人类很快"灭绝",被不在他们参考类中的后人类取代。
Bostrom似乎提出了这种观点:
以末日论证[DA]为例。为了使其有效,必须假设如果人类避免很快灭绝,远未来将存在的生命将包含大量与我们当前观察者时刻处于同一参考类的观察者时刻。如果认为远未来的人类或人类后代将有与我们非常不同的信念,他们将关注非常不同的问题,而且他们的心智可能甚至是在一些相当不同的(可能是技术增强的)神经或计算结构上实现的,那么要求在如此广泛不同的条件下存在的观察者时刻都在同一参考类中是一个非常强的假设。[...]这些论证将无法说服任何不使用它们所依赖的那种非常包容的参考类的人——事实上,思考这些论证可能会导致一个理性的人采用更窄的参考类。[...]
关于DA,我们可以区分比其他版本更具说服力的版本。例如,DA为拒绝人类将在未来以与我们当前状态非常相似的状态存在于非常大数量中的假设提供了更强的理由(因为这只需要相对较弱的假设:参考类定义至少有些包容),而不是拒绝人类将以任何形式继续大量存在的假设(这将需要将一组高度多样化的可能观察者时刻包括在我们当前的参考类中)。
2. 采用SIA
我对SIA感到不舒服,但不会排除它。根据维基百科文章,"许多人[...]认为末日论证反驳的主要候选是某种自我指示假设。"反对SIA的一个经典直觉泵是Bostrom的"自以为是的哲学家"思想实验。
3. 模型不确定性
许多聪明人对人类学推理存在分歧,即使有共识,它也可能在未来某个时候很容易被推翻,就像其他领域(物理学、生物学、宗教等)的共识一样。我们不应该对我们对未来影响的末日减弱过于相信,一个自然的退路是给予一些常识观点的信任。参考类和SIA是可能消除末日推理的一般类别的两个例子。
拯救未来狂热主义的其他方法
有知觉的非观察者?
注(2014年11月):我现在不同意这里讨论的二元意识概念。关于我更新后的观点的一个例子,请参见"意识是一个过程,而不是一个时刻"。
目前还不清楚哪些非人类动物会被算作普遍参考类中的人类学观察者。如果有我们认为有知觉但不够聪明到落入人类学目的观察者类别的动物,那么末日论证在更新我们认为未来可能存在天文数字的此类动物的想法时就不那么有力了。同样的道理也适用于可能能够受苦但没有能力"观察"自己是心智的人工有知觉心智。
如果仅仅有意识就意味着你是一个观察者,那么可能没有任何我关心的心智不是观察者。如果你不仅要有意识,还要能够理解自己是一个观察者,那么我关心的许多心智就不会是观察者。
即使一些动物或人工有知觉生命不是观察者,这也不会消除末日推理的影响。默认情况下,你会期望为了拥有大量非观察者有知觉生命,你需要大量更智能的作为观察者的心智来建造和保护它们。如果非观察者有知觉生命与观察者的比例在整个历史中大致恒定,那么末日论证对非观察者有知觉生命的作用就和对观察者一样强。如果在未来,非观察者有知觉生命与观察者的比例显著增加,即使在末日更新后,未来仍可能非常重要。当然,如果非观察者有知觉生命与观察者的比例下降,未来的重要性甚至会比末日论证所暗示的更低。
如果非人类动物是观察者,这给我们留下了一个谜题,为什么我不是一个非人类动物。从神经学上讲,至少一些非人类动物似乎应该是有意识的,尽管灵长类和鲸类的数量很少,以至于对它们有意识的人类学更新比对昆虫的更新要小。无论如何,这个讨论都是基于动物应该是观察者的假设,这一点完全不清楚。动物可能不是观察者的可能性是为什么对潜在的动物痛苦的关注在期望值上仍然极其重要的原因。如果我的一般人类学框架是错误的,它也会保持重要性——例如,如果我们使用排除非人类动物的参考类或者如果我们采用SIA。总的来说,关于未来的末日推理与这些关于动物意识的人类学问题直接平行。
更新:我最近关于多文明减弱末日论证的认识也对动物问题有所启示。考虑两个星球:一个只有人类级别的生命是有意识的,另一个昆虫和前人类动物也是有意识的。即使发现自己是人类,你在这两个星球上的可能性是相等的,因为第二个星球有更多的观察者抵消了任何特定观察者是人类的低概率。确实存在对所有星球上的动物知觉的普遍更新,但这种更新改变概率分布的速度比单一星球的更新要慢。(当然,如果两个星球上的动物是相同的,那么知道它们在一个星球上是否有意识就告诉你它们在另一个星球上是否有意识,但一般来说,不同星球上的动物应该是不同的,允许一些有意识而其他没有。)
如果基础物理中存在痛苦的可能性不可忽视,这将是一个更极端的有知觉非观察者论证版本,说明为什么远未来在期望值上可能极其重要。当然,这假设质子等不是观察者。这种假设被大多数人通常会使用的参考类所承认,尽管对于我的物理抽样假设来说并非如此,后者即使对于宇宙晚期仅有基本物理过程的很长时期也会产生末日论证。
无意识的观察者?
上面我注意到,目前还不清楚有意识是否意味着你是一个人类学观察者。相反,作为一个人类学观察者是否意味着你有意识?这里我所说的"有意识"是指"以类似于人类的方式反思自己并且我会认为具有道德重要性的计算"。
我们可以想象未来的AI不是上面所说的意义上的有意识,但仍然决定我们未来光锥的命运。如果它们不是观察者,那么末日推理就不会反对它们(除非它们可能创造大量有意识的观察者)。
它们会是人类学观察者吗?
- 是:它们可能会进行人类学推理。它们会有人类留下的关于如何正确进行的著作,至少它们可以遵循那些指导。它们可能还能设计出更好的人类学理论。
- 否:它们不必须进行人类学推理。它们可能是遵循人类编程的人类学规则的愚蠢机器。即使它们比人类更聪明,也许人类可以故意阻止它们进行自己的人类学推理(例如,通过不可改变的内部禁令),以防止它们被视为观察者。即使没有这样做,我也无法想象自己"成为"一台无意识的进行人类学推理的计算机。进行关于人类学的推理是否使你成为观察者,并不比进行关于量子力学的推理更清楚。
我认为不应该排除非观察者AI的可能性,作为未来狂热主义可能在末日推理中幸存的一个原因,尽管在这些情景中,AI不创造许多有意识的观察者似乎很奇怪(因为如果它们这样做,我们会对这些情景进行末日更新)。
关心无意识的事物
如果你不像我一样,关心的不是有意识的心智,那么末日论证对你来说可能不那么戏剧性。例如,如果你想创造回形针,你可以只建造几个AI来为你做这件事。即使AI是观察者,你可能不需要大量的AI,而且由于回形针不是观察者,你可以创造大量回形针而不会太大地影响人类学。如果你关心知识、复杂性、美、艺术等事物,只要你将产生它们所需的观察者数量保持在最低限度,情况也是一样的。不过请记住,AI会以高时钟速度运行,所以即使只有几个个体也可能意味着大量的观察者时刻。
更戏剧性的快乐体验
人类学按观察者时刻加权,但不按快乐强度加权。即使我们认为我们处于人类未来的中途,如果我们认为后半部分在快乐方面每单位时间会更加强烈,这会推高致力于未来的价值。
结束语
当人们第一次听到末日论证时,他们认为它听起来很疯狂。当使用普遍参考类时,人类学导致的其他异常听起来更加疯狂。
然而同时,具有普遍参考类的人类学似乎是一个伟大的均衡器。关于远未来影响的激进帕斯卡式赌注在它面前变得谦逊。中庸思维在许多其他领域消除了帕斯卡式狂热。话虽如此,即使是普遍参考类也不足以击败强大的帕斯卡式模型不确定性力量,所以现在看来狂热主义仍然占上风。
致谢
我在2006年首次发现末日论证,但主要忽视了它的含义,直到最近我读到DanielLC的一条评论,暗示他接受它。
附录:如果存在许多文明,末日效应会减弱
只有一个文明
假设整个多元宇宙只包含一个文明(或这一个文明的多个近似副本,使得所有副本要么共同是短命的,要么共同是长命的)。这个文明可能是短命的,有X个观察者时刻,或者是长命的,有nX个观察者时刻。在正文中我使用了n = 1000。你有一些概率f认为这个文明是长命的,但你不太确定f应该是多少,所以你对其可能的值采取一个概率分布P(f)。这是一个概率的概率分布,所以我们可以将其折叠为一个单一概率。称P(L)为唯一存在的文明是长命的折叠概率:
P(L) = ∫01 P(f) f df。
让S表示这个唯一的文明是短命的事件。
现在我们观察到我们在前X个观察者时刻中;称之为"obs"。我们更新我们的概率:
P(S|obs)/P(L|obs) = [P(obs|S)/P(obs|L)][P(S)/P(L)]
= [1/(1/n)][P(S)/P(L)]
= n [P(S)/P(L)]
= n [(1-P(L))/P(L)]。 (等式 A)
所以S vs L的几率比因为更新而完全乘以了n。
我们可以代入P(L)的积分方程:
P(S|obs)/P(L|obs) = n [1-∫01 P(f) f df]/[∫01 P(f) f df]。 (等式 B)
如果作为一个例子,我们取P(f) = 1对于所有f在[0,1]中,每个积分都会等于1/2,我们就会得到P(S|obs)/P(L|obs) = n。
如果我们取P(f) = (1-y) f-y对于y在[0,1)中,那么
∫01 P(f) f df = ∫01 (1-y) f-y f df
= [(1-y)/(2-y)] ∫01 (2-y) f1-y df
= [(1-y)/(2-y)] [f2-y]01
= [(1-y)/(2-y)] [12-y - 02-y]
= (1-y)/(2-y)。
然后
P(S|obs)/P(L|obs) = n [1-(1-y)/(2-y)]/[(1-y)/(2-y)]
= n [1/(2-y)]/[(1-y)/(2-y)]
= n/(1-y)。 (等式 C)
如果y = 0,那么P(f) = 1,(等式 C)简化为P(S|obs)/P(L|obs) = n,就像我们之前看到的那样。一般来说,(等式 C)说如果我们对f的先验更倾向于f的低值(即y更大),那么我们在后验几率比中偏好S的程度就更高。
许多文明
现在假设多元宇宙中存在许多不同的文明。(这似乎比整个多元宇宙只包含一种文明更合理。)其中一些比例f是长命的,但我们不知道f是多少,所以我们对f的可能值分配一个概率分布P(f)。注意,这种不确定性的形式与一个文明的情况相同,但这次f指的是实际存在的文明中长命的比例,而不是我们对唯一存在的文明是长命还是短命的不确定性。在这种情况下,P(L)指的是长命文明的预期比例。
在了解到我们处于前X个观察者时刻后,我们可以使用与一个文明情况完全相同的(等式 A)来更新我们的概率。这种情况与只有一个文明的情况的不同之处在于P(L)。它不再仅仅等于关于P(f)的f的期望值,因为你更有可能处于一个长命文明中而不是一个短命文明中,因为长命文明有更多的居民。
我们可以这样计算P(L):
P(L) = ∫01 P(L|f) P(f) df。
如果有f个长命文明,每个有nX个观察者时刻,和1-f个短命文明,每个有X个观察者时刻,那么你处于一个长命文明的概率是(fnX)/[fnX + (1-f)X] = fn/[f(n-1)+1]。
代入(等式 A):
P(S|obs) / P(L|obs) = { n [1-∫01 P(f) fn/[f(n-1)+1] df] } / { [∫01 P(f) fn/[f(n-1)+1] df] }。 (等式 D)
注意,这与(等式 B)相同,只是在积分中多了一个n/[f(n-1)+1]因子,这根据你更有可能处于有更多观察者时刻的文明中这一事实对平均值进行了加权。
情况:P(f) = 1
为了具体起见,假设我们取P(f) = 1。因为
∫ fn/[f(n-1)+1] df = [n/(n-1)2][(n-1)f-ln[(n-1)f+1]] + const
我们有
∫01 fn/[f(n-1)+1] df = [n/(n-1)2][(n-1)-ln(n)]
和
1-∫01 fn/[f(n-1)+1] df = (n-1)2/(n-1)2 - [n/(n-1)2][(n-1)-ln(n)] = (1 + n [ln(n) - 1])/(n-1)2。
代回(等式 D):
P(S|obs)/P(L|obs) = n [{(1 + n [ln(n) - 1])/(n-1)2}/{[n/(n-1)2][(n-1)-ln(n)]}]
= [(1 + n [ln(n) - 1])/[(n-1)-ln(n)]。
对于大的n,这大约是{n [ln(n) - 1]}/n = ln(n)-1。换句话说,即使对于大的n,人类学更新也不会太过偏好S而不是L。
情况:P(f) = (1-y) f-y,y在[0,1)中
也许我们的先验P(f) = 1对f的高值过于倾斜。直观上,似乎更多的文明是短命的而不是长命的,即使在考虑末日更新之前也是如此。我们可以用概率分布类P(f) = (1-y) f-y(y在[0,1)中)来表示这一点。
解析积分这些太难了,所以我使用Wolfram Alpha为一些y和n值计算了数值答案。例如,对于y = 2/3和n = 77,这里是计算比率(1-P(L))/P(L)的方程。
我将P(S|obs)/P(L|obs)的数字编制成下表。此外,我观察到数字趋势的一个模式。y=2/3的P(S|obs)/P(L|obs)对于大的n似乎表现得很像n2/3,所以我把n2/3作为它旁边的一列。同样,y=1/2的P(S|obs)/P(L|obs)似乎表现得很像n1/2。当然,当y = 0时,P(f) = 1,我们之前看到这大约是ln(n)-1,所以我在最后一列列出了这些值。我们可以看到这些近似值对于大的n有多接近。
n | y=2/3时的P(S|obs)/P(L|obs) | n2/3 | y=1/2时的P(S|obs)/P(L|obs) | n1/2 | y=0时的P(S|obs)/P(L|obs) | ln(n)-1 |
5 | 6 | 3 | 4 | 2 | 1.7 | 0.6 |
10 | 9 | 5 | 5 | 3 | 2.1 | 1.3 |
20 | 13 | 7 | 7 | 5 | 2.6 | 2 |
100 | 33 | 22 | 16 | 10 | 3.8 | 3.6 |
1000 | 136 | 100 | 50 | 32 | 6 | 5.9 |
106 | 1.2 * 104 | 104 | 1571 | 1000 | 12.8 | 12.8 |
1015 | 1.2 * 1010 | 1010 | 5.0 * 107 | 3.2 * 107 | 33.6 | 33.5 |
一般来说,对于大的n,P(S|obs)/P(L|obs)大致是ny。对于接近0的y,我们可以将这个近似改进为ny [ln(n)-1]。
这意味着即使对于对f的低值给予很大权重的合理概率分布,我们处于长命vs短命文明的概率减少也不是线性于n的。这意味着末日效应比我在本文其余部分所暗示的要小!我需要更多地思考这一点。一个取巧的方法是取y = 0.99并基本上重现线性末日效应,但这样的先验是值得怀疑的。例如,它只给f大于0.1的情况分配了2.2%的概率。
也许像y=3/4这样的值更合理。这说明71%的可能性不超过25%的文明是长命的。在这种情况下,我们会有P(S|obs)/P(L|obs)大约是n3/4,由于对于大的n,P(S|obs)几乎是1,这意味着大致P(L|obs) = n-3/4。如果我们处于长命文明,那么我们的影响比在短命文明中大n倍,所以现在从帕斯卡式的角度来看,采取针对长期未来的行动似乎(n-3/4)(n) = n1/4倍重要,尽管这个倍数需要因长期工作成功概率降低而打折。
n的合理估计是多少?如主文所述,迄今为止的人类数量约为X = 1011。在"天文浪费"中,Bostrom建议处女座超星系团每世纪潜在人类生命的上限约为1038,下限约为1023。假设文明持续100亿年,即108个世纪。那么这将意味着nX最高为1046,最低为1031,这意味着n在1035和1020之间。作为一个点估计,假设这个因子是n = 1028。那么长期未来在期望值上更重要的倍数是n1/4 = 107。即使在对很难对非常长期的未来产生持久影响的巨大折扣因子之后,这个倍数可能仍然大于1。
多个文明与少数文明的比较
到目前为止,我所做的是计算多个文明的P(S|obs)/P(L|obs),但其值取决于所选择的f的先验。为了突出有多个文明而不是只有一个文明的区别,检查多个文明的P(S|obs)/P(L|obs)与一个文明的P(S|obs)/P(L|obs)的比较会很有启发性。
对于大的n,P(S|obs)几乎是1,所以P(L|obs)大约是P(L|obs)/P(S|obs)。对于一个文明,(等式 C)告诉我们这个值是(1-y)/n。对于多个文明,它是n-y。因此,
[多个文明的P(L|obs)]/[一个文明的P(L|obs)] = n1-y/(1-y)。
换句话说,在多个文明中,我们是长命的可能性比单一文明的末日论证大约n1-y倍。
Gerig、Olum和Vilenkin的论文
在写完这个附录后,我发现了一篇提出相同分析的论文:"普遍末日:分析我们的生存前景"(2013)由Gerig、Olum和Vilenkin撰写。作者使用了与上面完全相同的设置,他们的R是我的n,他们的D是我的obs。在第3节中,他们也发现在P(f) = 1的均匀先验情况下,P(L|obs)渐近于1/ln(n)。
论文指出:
我们可以将这些结果与传统的末日论证进行比较。使用均匀先验,我们的文明长命的先验概率是1/2,后验概率约为1/ln(R)。如果我们在传统的末日论证中采用生存的先验概率P(L) = 1/2,(1.1)会给出我们的生存概率仅为1/(R + 1)。因此,至少在这种情况下,考虑到多个文明的存在会得出一个更乐观的结论[假设末日是坏事]。