如何将物理系统解释为心智

作者:Brian Tomasik

首次撰写:2015年1月30日。最后重大更新:2017年10月17日。

摘要

现象意识并不是宇宙的本体论基本特征;相反,它是我们在对物理系统采取"现象立场"时赋予它们的属性。本文概述了一些可能用来形式化我们关于哪些物理实体在何种程度上具有意识的直觉的一般方法。特别是,我们可以援引心灵哲学中的许多传统意识理论,如同一性理论和功能主义,作为意识归因的框架。功能主义面临着关于物理系统实现何种抽象计算的不确定性问题,一种可能的解决方案是根据简单性、可靠性、反事实稳健性和其他因素来权衡不同的解释。

目录

引言

如果我们关心他人的福祉,我们就想知道他人正在经历什么样的情绪,然后评估这些情绪是好是坏。我们想减少不好的情绪,也许还想引发更多好的情绪。

但根据A型物理主义,情绪并不是宇宙的本体论原始属性。相反,只有物理学,而情绪是我们赋予物理系统的概念,类似于"好"和"坏"是我们赋予情况和行为的道德标签。

我所说的"物理系统"是指宇宙的某个子集。典型的例子包括

我们如何将情绪和福祉归因于物理系统?我们应该使用什么标准?本文探讨了一些选项。这些想法的列表并不详尽,我们可以同时使用其中几种方法,然后将得到的评估结果结合起来。

构建意识分类器

我们的问题是:对于给定的物理系统,它正在经历什么样的情绪,这些情绪有多好/坏?答案在任何深层本体论意义上都不是事实性的,因为情绪和道德价值是我们赋予物理学的属性。相反,我们需要一个关于如何做出这些判断的伦理理论

对这个问题的回答将是一个"意识分类器",它接收物理系统的描述作为输入,输出归因的情绪及其价值。例如,如果我们给这个程序输入你生命中特别快乐时刻的大脑物理状态,它应该输出,比如说,

  1. "喜悦","欣喜若狂"
  2. 价值 = +100。

我们人类的大脑中已经有了意识分类器。开发更明确的意识分类器的目标是提出一种更透明、更不偏狭的方法来将心理生活归因于物理系统。反思分类器的工作原理可能会改变我们预先存在的、零碎的直觉。

一些方法的分类

意识分类器可以基于理论、训练样例或两者来构建。理论方法从抽象的第一原理出发,发展关于意识的一般想法。使用训练样例的方法采用已经被认为以各种方式具有意识的现有物理过程实例,并使分类器适应它们。

这些训练样例的目标输出值是根据主观报告、偏好权衡和/或构建分类器的人的直觉而制定的。例如,也许我认为一个人溺水一分钟时大脑中的过程的负面程度为-50,而那个人活活烧死一分钟时大脑中的过程的负面程度为-400。分类器也可以用来完善一个人的直觉。例如,如果我天真地认为溺水比另一种死亡方式更不糟糕,但后来我发现分类器根据某些类型的大脑活动预测溺水的负面程度非常严重,我可能会修改我最初的判断。

下表根据它们与训练数据的匹配类型(如果有)(列)和评估中使用的标准类型(行)对一些分类器方法进行了分类。这个表格可能有些令人困惑,但我会在下面更详细地解释。

训练(精确匹配) 训练(模糊匹配) 理论
物理特征 标记同一性 类型同一性 各种物理标准
偏狭的功能主义 定义的输入/输出,算法与训练样例完全匹配 定义的输入/输出,算法与训练样例相似 定义的输入/输出,一般功能标准
自由功能主义 任意输入/输出,算法与训练样例完全匹配 任意输入/输出,算法与训练样例相似 任意输入/输出,一般功能标准
前反思直觉、直觉感受等 (这大致是我们通常使用的) 将直觉感受作为评估的一个组成部分

在这种情况下,标记物理主义本质上意味着一个查找表分类器:检查输入的物理系统是否在训练样例列表中,如果有完全匹配,则返回其标记的情绪和价值。在心灵哲学中,标记物理主义通常带有形而上学的重量,假设心理事件确实存在(B型物理主义)并且与特定的大脑事件相同。在这里,我提取了理论背后的想法,而没有意识是一个真实、确定的事物的本体论主张。不用说,标记物理主义可以做出的判断仅限于训练样例。如果我们使用自己的前理论判断提供训练样例,那么标记物理主义最终会回归到我们原有的直觉。

类型同一性不仅仅是一个查找表,而是更像一个基于特征的分类器。在心灵哲学中,类型物理主义判断的标准(尽管神经学上贫乏)例子是,X处于痛苦当且仅当X有C纤维发射。换句话说,C纤维发射的存在是痛苦分类的(最强大的)输入特征。通过匹配输入的特征而不是整个输入,这种方法可以推广到训练集之外。我们根据给分类器的数据制定了从C纤维到痛苦的映射规则,但现在它可以将痛苦归因于任何有C纤维发射的生物。与标记物理主义一样,类型物理主义通常与心理状态的形而上学现实性的承诺相一致,但我为了自己的目的而借用它。

我对"偏狭"和"自由"功能主义的区分基于Ned Block的"功能主义的困境":

精确匹配版本的功能主义只将意识归因于实现与某个输入训练样例的算法完全相同的算法的系统。模糊匹配功能主义抽象出计算在做什么的更高层次的想法,允许推广到训练集之外的算法。

例如,如果我在训练集中,精确匹配功能主义会寻找执行与我的身体完全相同计算的系统。模糊匹配功能主义会认识到我的身体有许多一般类型的操作,如言语、记忆、计划、强化学习、信息广播、刺激回避、哭喊等。然后它将其他系统与这些特征进行模式匹配,并根据这些类型的操作是否存在以及存在程度来评估意识。

假设我们只把我的身体作为训练集。以下是根据不同形式的功能主义,什么样的东西会被认为是有意识的例子:

我个人的伦理倾向最强烈地认同模糊匹配自由功能主义。

计算是相对于解释的

直接从物理学映射到道德价值的物理主义观点相对容易理解。功能主义更复杂,因为它从物理学映射到计算再到道德价值。此外,虽然物理学是真实和客观的,但计算是虚构的和"观察者相对的"(用John Searle的术语)。"这个物理系统正在实现的计算"没有客观意义(除非你指的是系统正在进行的具体物理方程)。

关于实现计算意味着什么以及功能主义是否琐碎,有一个重要的文献。一些好的起点是

我将在下面简要说明这个想法,灵感来自Searle著名的"Wordstar"例子,但我在这里的讨论并不能替代查阅其他论文。

示例:粒子"实现"图灵机

考虑一个只使用三个非空白磁带方格的图灵机。我们可以用五个数字来表示它的操作:三个非空白磁带方格的值、机器的内部状态和头部位置的索引。a根据"实现"的弱概念,任何我们可以从中映射到适当图灵机状态的物理过程都将实现图灵机。

特别是,假设我们考虑随时间移动的5个气体分子。我们考虑三个时间片段,对应于图灵机的三种配置。在每个时间片段,我们定义每个分子在其特定位置的含义。例如,如果分子#3在空间中的位置为(2.402347, 4.12384, 0.283001),这"意味着"图灵机的第三个方格说"0"。其他所有分子位置在每个时间点也是如此。下图说明了这一点,黄线定义了从特定物理状态到其在图灵机变量方面的"含义"的映射。
分子图灵机。

Paul Almond建议我们甚至可能不需要五个粒子,也许我们可以将单个电子的"含义"归因为整个复杂算法:"墙的一小块也可以被说成正在实现我们喜欢的任何算法[...],如果我们准备使用足够复杂的解释。为了将这一点推向极端,我们甚至可以将我们想要的任何解释应用于墙中一个原子中的单个电子,以获得我们想要的任何算法。"我不确定我是否认同这一点,因为通常计算的实现被定义为每个计算状态都由其自己的物理状态表示的映射。当然,人们可以放宽"实现"的定义以包括Almond的提议。

计算机科学中的表示任意性

解释的任意性是计算机科学中的一个标准概念,这从有符号数表示字符编码字节序等问题中可以看出。

此外,深奥的编程语言表明程序可以用非标准符号编写,包括颜色模式和声音。当看到这个Ook!程序而不是等效的Java或Python程序时,解释的任意性更容易理解。当然,一旦Ook!程序被执行,解释程序语法的任意性就消失了,但它被解释计算机物理操作的任意性所取代。

解释的不确定性也出现在无数其他领域,如罗夏测试、视觉错觉和文学批评。

使用多种可能的解释?

正如Blackmon观察到的,计算(一个逻辑对象)是由物理系统对系统的解释共同实例化的。这给功能主义者留下了一个问题:在评估系统正在执行的计算时应该使用哪种解释?

Almond建议为给定系统似乎实现给定算法的程度分配一个度量。受这种一般方法的启发,我提出我们可以同时根据所有可能的解释来分配情绪和道德重要性,并根据它们的合理性进行加权。具体来说,让c(p,i)是一个函数,根据解释i将物理系统p解释为计算c。例如,对于上面图示的五个气体分子,p是气体分子集合,i是黄线,c(p,i)是图灵机状态。让S是所有解释的集合。让V(c)表示计算c的道德价值。让w(p,i,c)表示我们想给予解释i相对于系统p的权重,归一化使得对于固定的p,ΣS w(p,i,c) = 1。那么

p的总体道德价值 = ΣS V(c(p,i)) w(p,i,c(p,i))。

我们还可以构造函数Ex(c),表示计算c体现情绪x的程度。我们可以使用类似上面的公式对每种情绪进行评分,然后输出得分最高的情绪作为系统正在经历的情绪的文本标签。

Peter Godfrey-Smith也提出了这种权衡不同解释的想法(第27页):"我选择在更自然和不太自然的实现之间进行渐进区分(在具有正确输入-输出配置的系统内)。"

接下来的小节讨论了一些可能影响我们如何构造w(p,i,c)函数的因素。

简单性

更扭曲或数据密集的映射方案应该有较低的权重。例如,我假设个人计算机通常在每个位置统一地将电压水平映射到0和1。一种将每个电压水平的0或1解释单独划分的映射将算法的复杂性偷偷带入解释中,应该相应地受到惩罚。

我们应该使用什么复杂性度量?有许多可能性,包括原始直觉。Kolmogorov复杂度是另一种常见且灵活的选择。也许从物理状态到算法的映射的复杂度应该是某种描述语言中最短程序的长度,该程序在给定物理系统的完整序列化比特串描述时,输出相应的算法系统的序列化描述,对每个时间步都如此。如果物理系统p的解释i的Kolmogorov复杂度为K,我们可能会设置w(p,i,c) ∝ 2-Kb

请注意,这样的定义会给只运行几步的计算赋予更高的权重,因为即使是牵强的解释也不需要太大的复杂度。它也极大地偏好将物理系统解释为实现极其简单的计算,因为如果我们只将物理系统映射到少量算法状态,那就最容易了。例如,考虑一个有限状态自动机(FSA),它只是在任何输入下从一个状态移动到另一个状态。对于任何物理过程,我们可以简单地将某个时间之前的事件划分为第一个状态,将某个时间之后的事件划分为第二个状态,我们就完全——而且稳健地!——实现了这个算法。(这个例子的灵感来自Hilary Putnam著名的定理,即"每个普通开放系统都是每个抽象有限自动机的实现"。)

也许我们对一个短小简单的计算c的评价V(c)非常小,以至于即使w(p,i,c)有很高的权重,这个计算和其他类似的计算也不会主导整体功利主义计算。但也可能咬紧牙关得出结论,简单的计算确实在伦理重要性上占主导地位——这加强了其他论点,即为什么基本物理学中的痛苦可能压倒功利主义计算。毕竟,简单的计算在物理学中无处不在,而像人类这样复杂的计算极其罕见。

可靠性

Chalmers反对像Putnam那样牵强的解释,理由是物理状态转换不一定可靠:

考虑系统实际表现出的从状态a到状态b的转换。对于系统成为真正的实现,这种转换必须是可靠的。但是[...]如果环境条件稍有不同,系统的行为就会完全不同。Putnam的构造并没有确立任何关于系统在这种情况下行为的内容。该构造完全特定于所讨论时期的环境条件。由此可见,他的构造并不满足相关的强条件句。尽管在这个特定的运行中系统恰好从状态a转换到状态b,但如果条件稍有不同,它可能会从状态a转换到状态c,或者做完全不同的事情。

反事实稳健性

物理系统实现了一次计算的通过。但Chalmers和其他人认为,计算应该是反事实稳健的,即如果输入不同,物理系统应该正确地实现算法的不同分支。

例如,考虑以下算法c

如果伦敦刮风:
    圣诞老人访问纽约
否则:
    地球绕太阳运转

假设伦敦没有风,地球确实绕太阳运转。物理系统实现了算法的一个分支,但如果输入条件不同,它可能不会实现另一个分支。因此,将没有风解释为这个算法的实现得到的权重很低——比如果世界是这样的:如果伦敦刮风,圣诞老人访问纽约,即使风仍然不刮,同样的算法会得到的权重低。相同的物理事件,相同的解释,但根据反事实情况得到不同的权重。

最极端的情况是要求反事实稳健性,除非计算c(p,i)的所有反事实分支都会被p使用相同的解释i实现,否则设置w(p,i,c) = 0。

我赞同Mark Bishop对反事实稳健性是强制性的这个想法的担忧

[Chalmers的观点]暗示仅仅移除FSA状态结构中一个已知输入下不会也永远不可能进入的部分,somehow会影响机器人经历的现象状态。反之,仅仅添加一段[无意义的]FSA结构,在已知输入下不会也永远不可能进入,同样会影响机器人的现象体验...

这里有一个更具体的例子,不依赖于对物理系统的牵强解释。假设我有一个复杂的Python程序R,根据Chalmers的说法,它实例化了意识。我在特定输入X上运行它。R使用许多变量(例如,用于存储从感官输入接收的值),但对于特定输入X,它们在执行过程中被设置为确定的值,所以我们可以从一开始就将这些值硬编码到程序中。这样做会创建一个新程序R'。现在变量已经固定,我们对条件分支的需求减少了,所以我们可以删除R'中未运行的分支,得到一个新程序R''。Chalmers的观点表明,在输入X上运行的R是有意识的,但R''仅实现实际发生的操作,即使在完全相同的输入上,即使它执行大致相同的逻辑计算,减去一些分支等开销,也不那么有意识。d

在这种时候,我很高兴自己是一个关于感质的消除主义者,因为如果我是一个B型物理主义者,我会在这里面临一些大麻烦。

表示的自然性

也许基于物体的"自然"属性来解释物理对象特别优雅。也许用实际的质量、速度或物理粒子数(相对于某些单位)来表示数字特别好。因此,例如,有人可能会认为,大脑中通过发射率、神经递质密度等表示量级比计算机中通过二进制数表示这些量级更自然,因为二进制数可以根据使用的表示方案类型有多种含义(感谢Tim Cooijmans提出这一点)。话虽如此:

  1. 涉及二进制数的映射的更大复杂性应该已经被w(p,i,c)的"复杂性"方面计算在内了。例如,假设我们正在寻找实现表示正整数加法的计算c的物理实现。将一个原子放在另一个旁边以相当直接的方式实现了1 + 1 = 2。相比之下,实现操作

    0001, 0001 -> 0010

    的机器可能意味着1 + 1 = 2(加法),但也可能意味着其他可能的函数,比如如果二进制数字从右到左读取,则为8, 8 -> 4,或者如果"0"意味着我们通常称为"1"的东西,反之亦然,则为14, 14 -> 13,等等。因此,将这个符号序列解释为1+1=2似乎更复杂。
  2. 对于不是微不足道的短程序,我们应该能够根据程序的运行方式来减少关于使用哪种二进制表示的可能性。详见下一节。
  3. "自然"数字,如神经元数量和发射率,在算法的更广泛背景中仍然可能在语义上模糊不清。例如,有人假设在人类大脑中,相位性多巴胺代表正面奖励预测误差,而相位性血清素代表负面误差,但情况也可能恰恰相反。更一般地说,复杂计算系统中的一个数字可能意味着许多不同的事情。例如,假设用于运行计算机调度算法的数字不是二进制的,而是"自然的",例如小球的数量。即使我们能够解码作为算法一部分被洗牌的数字,这些数字也可能有许多可能的含义——例如,优先级列表中项目的排名、在某些其他数据结构中的位置索引、对象的唯一ID、自项目使用以来经过的秒数等。

其他标准

我们也可以自由地向w(p,i,c)添加其他条件。Godfrey-Smith提出了一些建议(第29页),尽管我没有完全理解它们。他指出,一些标准可能会重新引入功能主义最初打算保持中立的"偏狭"物理特征的痕迹。

解释的约束满足

我们可以专注于简单和反事实稳健的解释,因为其他解释在评估计算中得到的权重要低得多。简单性意味着给定实体的含义在计算进行时不会随意改变,因为如果含义改变,解释就需要指定在哪里以及改变成什么。这意味着,例如,计算通常应该在整个过程中使用相同的数字和字符表示。

基于这些约束,我们可能能够对哪种解释最适合情况做出一些进一步的推断。例如,假设我们有一个看起来像强化学习代理的物理系统,基于其反事实稳健的结构。假设当代理连续三次采取给定的行动A时,它收到的奖励由二进制数字0011、0110和0111表示。在此之后,代理继续采取相同的行动A。但现在,当它再次采取行动A三次时,代理收到的奖励是1111、1011和1000。在此之后,代理避免再次采取行动A。从这些观察中可以得出一个合理的推断是,奖励是基于有符号数表示(如二进制补码)编码的,其中正二进制数以0开头,负二进制数以1开头。一种所有收到的二进制奖励都是正数的无符号数表示仍然是可能的,但它需要对情况进行更复杂的解释。

我不是语义学专家,但我认为这个想法类似于"心理内容的目的论理论":"内容理论试图说明为什么一个心理表征[如二进制数1011]被认为表示它所表示的内容。根据内容的目的论理论,一个表征所表示的内容取决于产生或使用该表征的系统的功能。"

识别最合理解释的过程类似于科学推理。科学理论总是未确定的,有无限多种可能的理论来解释相同的数据。我们通过奥卡姆剃刀克服这个问题,惩罚更复杂的假设。所以一种思考我们的权重w(p,i,c)的方式是,它们在某种意义上是概率。

使用贝叶斯定理?

一个具体的想法可能是假装物理系统的演化(加上所有反事实演化,如果我们坚持反事实稳健性)是/被某个随机计算c根据某种解释i生成的。由于c通常是一个高层算法,不指定底层物理系统p中的所有详细噪声,c不能精确生成p。例如,假设在某些单位中任何小于0.5的电压值代表"0"位,否则代表"1"位。那么任何电压都有一个符号含义,但从看到"0"我们无法推断出确切的电压值。为了克服这一点,我们可以想象,给定一个计算状态和对解释的了解,原始物理状态可能是什么有一个概率分布。我们可以对每个计算状态都这样做,从而生成计算c在解释i下"产生"物理系统p的累积概率:P(p|c,i)。

当从物理过程推断计算时,我们想要反向推理:给定物理系统,什么计算和解释是合理的:P(c,i|p)?这些可以是我们的权重w(p,i,c)。根据贝叶斯定理:

P(c,i|p) ∝ P(p|c,i) P(c,i)。

先验概率P(c,i)应该体现奥卡姆剃刀,惩罚复杂的计算和解释。它可能采取2-K的形式,其中K是某种适当的Kolmogorov复杂度。

P(p|c,i)对非常复杂的计算最大,因为算法越好地描述完整的物理系统,它就越有可能预测出正确的物理系统。这种极端情况是计算c实际上就是系统的物理定律,解释i只是将所有实体映射到它们自身。在这种情况下,P(p|c,i) = 1,c = p。

相比之下,P(c,i)对非常简单的计算最大。所以也许P(p|c,i) P(c,i)的乘积在极端简单性和极端复杂性之间达到某种中间地带?

实际上,P(p|c,i) P(c,i)与科学家用来评估物理理论的目标指标相同:理论预测数据的程度如何,理论有多简单?所以如果物理系统运行足够长的时间("积累足够的数据"),那么也许我们的指标w(p,i,c) = P(c,i|p)就会收敛到系统的真实物理定律。这当然是对系统正在执行的计算的一个合理解释,但它让我们回到了原点。功能主义的目标是将系统解释为实现更简单、更高层次、更像代理的计算,而不是每个夸克和轻子在做什么的全部混乱细节。

更高层次的计算

功能主义的解释不确定性问题通常在形式计算模型(有限状态自动机、图灵机等)的背景下讨论,但除非我们使用精确匹配功能主义,而训练集中的算法具有非常低层次的规范,否则上升到David Marr的层次结构的更高层次可能更有启发性,专注于认知系统正在执行的一般任务,如刺激检测、快感评估、强化学习、动机变化和社交互动。我们对这些过程的重要性有多少有更好的直觉,而不是对,比如说,组合状态自动机的特定转换的道德地位。

评估物理系统与这些更高层次概念的匹配程度至少与将系统解释为特定形式计算一样模糊,我们可能会使用模糊的概念匹配来决定给定物理系统实现给定高层过程的权重。理论上,我们可以从物理系统映射到形式计算,然后从形式计算映射到更高层次的计算(上升Marr的所有三个层次),尽管在实践中,这通常比直接注意到更高层次的计算更困难。例如,假设我们看到一只兔子从捕食者那里逃跑。直接将其推断为"逃跑行为"比从物理系统映射到兔子大脑中产生其计划和运动的计算的形式规范,然后推断这些计算代表逃跑行为更容易。

我们可以对高层计算有合理的和笑话式的解释。例如,假设我们将"强化"的高层过程定义如下:"如果系统做X,它会继续做X并以更强烈的程度这样做"。

解释相对性并非功能主义所独有

正如Blackmon的论文所明确指出的,高层概念相对于解释的想法并不是功能主义独有的困扰。事实上,许多高于基础物理学水平的描述都容易受到笑话解释的影响。

例如,让我们看看类型物理主义者钟爱的C纤维。什么算作C纤维?具有神经元簇结构的东西。如果不需要特定的分子组成,那么我们可以将任何物质块解释为包含C纤维的结构,通过在材料中心智地"雕刻出"适当的结构,就像雕塑家雕刻出雕像一样。e为了表示纤维正在发射,我们可以想象性地雕刻出纤维的连续快照,使其运动生动起来。

但也许这种方法太自由了。也许类型物理主义者要求C纤维包含碳、氢、氧和其他类似地球生物学的元素(一种心灵哲学版本的"碳沙文主义")。但是,我们可能至少可以在许多种生物组织中雕刻出C纤维。例如,骨骼肌的分子不会在与神经元相同的位置,但有一些牵强的映射可以将肌肉的原子放在逻辑空间中的正确位置,创造出看起来更像普通神经元的东西。

也许类型物理主义者也会排除牵强的位置交换。他们可以坚持认为正确的元素必须在原始空间位置构成正确的结构。在这一点上,也许笑话解释失败了,因为定义如此接近底层物理学。但当然,定义也相当偏狭。在定义太窄以至于无法捕捉所有重要内容和太自由以至于捕捉许多不重要内容之间存在一般的权衡。这不仅适用于从标记物理主义(最偏狭)到类型物理主义(有些偏狭)到具有固定输入/输出的功能主义(不那么偏狭)到自由功能主义(一切都行!)的光谱。它也适用于字典定义、义务论原则、法律条文和所有其他涉及更高层次概念的情况。

重新审视反功能主义论证

观察到许多高层概念在某种解释下无处不在,这给了我们对反功能主义论证(由Putnam、Searle、Bishop等人提出)的新视角,即意识不可能只是算法,因为在某种解释下,任何足够大的系统都实现了给定的算法。作为类比,假设我声称桌子不可能是结构实体,因为在某种解释性"雕刻"过程下,任何足够大的物质块都实现了桌子的形状。

如果我们理解为什么这个反桌子论证是谬误的,我们就可以看到为什么反功能主义论证是谬误的。桌子就是我们认为它们是什么。有些实体更自然地被解释为桌子,这些是我们称之为桌子的东西。同样,算法就是我们认为它们是什么,那些更自然地被解释为给定算法的过程就是我们说实现了算法的过程。一些哲学家在桌子案例和意识案例之间感觉到直觉上的差异的原因是,他们坚持认为意识意味着物理之上的一些额外属性,有一个二元事实关于那个额外属性是否存在。但没有这样的额外属性。桌子的还原就像意识的还原一样——只是意识极其详细和复杂。

功能主义作为物理主义理论中的滑动尺度

在"缺失感质、褪色感质、跳舞感质"中,Chalmers指出系统的功能描述取决于观察的细节水平:

物理系统在许多不同层次上具有功能组织,这取决于我们如何细分其部分以及如何细分这些部分的状态。例如,在粗略的层次上,如果我们选择适当的半球相互依存状态,大脑的两个半球很可能可以被视为实现简单的两组分组织。然而,通常更有用的是在更精细的层次上看待认知系统。对于我们的目的,我总是关注足以确定认知系统的行为能力和倾向的组织水平。[...]在大脑中,神经水平可能就足够了,尽管更粗略的水平也可能有效。

但是一个生物体的"行为能力和倾向"是什么?我们是否只计算肌肉运动?当被锁定的病人通过纯粹的思想连接到合适的记录设备时能产生的行为怎么办?你的大脑对其周围电磁场的微小但非零影响怎么办?你大脑中碳-14在β-衰变过程中发射的电子反中微子怎么办?这些当然也是你认知系统的"输出"?

如果大脑的功能细节水平被认为足够精细,它可以包括特定分子、原子、夸克或超弦的相互作用模式。复制这种水平的细节将意味着对物理基质的要求,这正是类型和标记物理主义者一直坚持的——忽略了其他物理系统中超弦动力学的笑话解释。例如,要复制基于碳的生物神经元的精确分子功能动力学,你需要生物神经元(忽略其他物理系统作为生物分子动力学实现的笑话解释);人工硅替代品是不行的。所以在某种意义上,类型/标记物理主义只是具有非常精细分辨率水平的功能主义。Polger (n.d.):"人们可能会认为'功能'同一性可以任意精细,以至于包括完整的物理同一性。"

另一方面,忽略内部状态的行为主义可以被看作是具有非常粗略细节水平的功能主义——一种只关心输入和输出的功能主义(相对于对什么算作输入/输出和什么算作内部变量的任意定义)。一个实现人类的巨大查找表在行为主义意义上可以等同于普通人类,因为理论要求的功能细节水平非常稀疏,至少在人的皮肤内部是这样。

因此,功能主义不是单一的心灵理论,而是一系列基本上包括其他物理主义理论的理论。这并不令人惊讶,因为抽象不是在单一水平上运作的。抽象总是可以粗粒度或细粒度。

这一点还表明,当人们声称"我大脑的数字上传不会完全是我"时,他们在某种意义上是对的:上传不会实现你的物理大脑所做的所有细粒度功能过程(例如,原子物理学)。在"你"的定义中哪些过程有多重要是你可以自己选择的。这里没有形而上学的事实。

我们对各种特征的关心程度如何?

意识分类涉及两个阶段:

  1. 识别相关物理系统的特征
  2. 从这些特征映射到高层情绪和价值。

对于精确匹配方法,步骤1相当于挑选出物理系统实现的训练示例(如果有的话),步骤2相当于只读取在训练标签上找到的答案。

对于模糊匹配方法,步骤2不那么简单。在这些情况下,我们必须决定,例如,C纤维发射(类型物理主义)或广播负面奖励信号(功能主义)感觉有多糟糕。以下是我们可能决定这一点的一些方法。

从训练样例中学习

如果我们非常相信我们的直觉判断,我们可以应用标准机器学习来训练神经网络或其他函数逼近器,将"奖励信号广播强度"或"C纤维发射强度"等概念映射到"快乐"或"痛苦"等情绪和+5或-20等价值。

我们自己大脑中的神经网络以口头报告的形式产生这些类型的输出,假设连接到大脑信号的人工分类器可以相当准确地预测人类报告的大脑状态。将神经网络快感预测器扩展到动物和类似动物的数字生物会更棘手,因为缺乏口头报告,尽管行为测量可能作为福祉的代理来训练网络。

这种类型的快感测量对非常简单或非常异类的心智来说最棘手。但也许我们应该只相信从熟悉的例子中学到的权重会适当地转移到不熟悉的情况。我们还可以对非典型类型的心智的权重和输出进行理智检查和手动调整。

拟人化

我们对一个角色被殴打的卡通关心多少?也许完全不关心是正确的。但如果我们确实想表达最轻微的同情,我们该如何做?刚才讨论的方法会从移动的电视屏幕像素中提取一些非常粗略的功能行为,然后将其输入训练好的分类器。但另一种方法是通过拟人化更直接地感受情况。

是的,我知道:拟人化是一个贬义词,没有人愿意被指责这样做。但大多数人类伦理在某种程度上是拟人化的——我们在某种程度上根据我们的心智投射到其他事物上来评估好坏。刚才讨论的分类器训练方法是拟人化的,因为非典型心智是基于假装它们的分类器输入来自人类(也许还有其他智能动物)来评估的。

我们也可以对被虐待的卡通角色做出更直接的判断,不使用任何明确的分类器,而是通过将自己投射到角色的处境中。在这样做时,我们应该试图想象自己是我们能想象的最简单的心智,尽管这种幻想仍然会比实际上近似的心智复杂得多。然后我们可以尝试理性地剥离简单心智显然没有的多余认知过程。最后,我们会剩下一丝道德价值,小到几乎不存在。但至少这个练习可能帮助我们直觉地判断我们是否认为殴打卡通角色是(无限小地)好还是(无限小地)坏(或者,如果我们是负面功利主义者,殴打角色是中性还是坏)。

在"外观vs实现"中,我讨论了视觉显示如何不确定拟人化解释,类似于物理过程不确定计算解释。例如,被虐待的卡通角色是否因被殴打而受苦,还是他有不同的生理构造,在这种构造中身体伤害实际上是有趣的?从字面上讲,这个问题是荒谬的:角色没有我们所知的生理学,不能有意义地说他受苦或享受这种经历。关于角色是否痛苦或愉悦的思考基本上是幻想,因为屏幕上移动的像素模式比人类感受简单得多,以至于我们想象的关于情感的几乎所有东西都不适用。尽管如此,如果我们要(不)重视卡通角色,那么这种类型的幻想可能会给我们一些这样做的基础。当然,世界上卡通的数量如此之少,以至于这个特定问题在道德上是微不足道的,但当评价基本物理学中的简单过程时会出现类似的问题,在这种情况下,即使对任何给定系统的道德关心再小,数量众多也可能将其放大到天文数字的比例。

拟人化可能无意识地影响我们对各种计算过程价值的判断,因为在思考更简单的系统时,高层人类经验的记忆和概念可能在某种程度上被激活。明确的拟人化幻想是达到类似效果的另一条路径。

尽管如此,我感到非常不愿意故意拟人化,因为这样做显然会犯感情谬误

直接评估心理过程

我们可以尝试从理论上判断我们对厌恶、焦虑、奖励学习、记忆形成、自我反思等心理/计算过程的关心程度,而不是从示例中训练。毫无疑问,我们在这里的感受会受到我们心中实际例子的影响。也有一种风险,即发展出过于关注优雅而不够与同理心反应联系的抽象原则。

我们的分类器总结

下图说明了我们的整体意识分类器可能如何对给定的物理系统工作。(图片故意看起来被截断了,因为我试图说明分类器可能有很多输入,不仅仅是这里显示的那些。)

意识分类器。

这个图表顶部的神经网络输出道德价值(功能主义者的V(c)函数)。它只是系统的一种算法解释的函数,但我们也可以为所有可能的底层算法c运行这个网络,并根据产生每个不同c的解释的合理性来权衡结果网络输出。此外,这个特定的网络输出计算的道德价值,但我们可以有其他神经网络来对物理系统在各种概念属性上进行评分,如"快乐"或"恐惧",然后选择得分最高的标签来口头描述系统。

我们大脑中可能已经存在一些类似这种分类器架构的东西——可能有很多额外的复杂性,比如基于缓存思想、文化规范、认知失调的解决等修改输出。此外,人类大脑中的网络

可选:与这个主题相关的个人历史

当我在2005年底开始讨论功利主义时,朋友们的一个常见批评是:"但你怎么衡量效用?"最初我回答说效用是一个真实的量,我们只需尽最大努力猜测它在各种生物中的取值。随着时间的推移,我认为我开始相信,虽然意识在形而上学上是真实的,但将有意识的经验浓缩为单一效用数字的过程是做出判断的人的人为归因。2007年,当一个朋友追问我如何确定一个心智的净效用时,我说:"归根结底,我编造一些对我来说看起来合理的东西。"2009年底,我终于理解了即使意识也不是本体论上的基本,我采取了一种与本文有些相似但不那么详细的立场。

在某种意义上,这篇文章是对"你无法衡量效用"这一反对意见的回应,因为它概述了你原则上如何"衡量"效用,只要你从(1)由关于某些经历有多好/坏的判断调用组成的输入训练数据和/或(2)关于各种认知过程重要性的一般原则开始。当然,在实践中,精确测量在大多数或所有时候都是不可能的,但我们可以希望更便宜的近似足够好用。一个量难以或不可能计算并不意味着它不是正确的价值量;近似你真正关心的东西比优化一些你不关心的其他更易处理的量要好。

附录:计算的解释相对性的其他含义

人择推理

计算主义者通常用算法来思考:"我就是我大脑中的算法,无论它们在什么基质上实现。"这不仅仅是个人身份的诗意陈述,还可能转化为人择推理的后果。

例如,假设一个人的大脑被上传到软件中。一个副本在蓝色房间运行,两个副本在红色房间运行,但没有上传有光线传感器来看到它所在房间的颜色。所有副本都从相同的起始条件和相同的环境输入运行。因此,所有三个"算法实例"应该是相同的(在逻辑空间中,尽管不在物理空间中)。
彩色房间中的大脑上传。

天真的人择推理可能是这样的:我可能是三个副本中的任何一个,由于它们在主观上是无法区分的,我应该给每一个分配相等的概率。因此,如果我必须押注我的房间是蓝色还是红色,我应该押注红色,因为在这种情况下我有2/3的获胜机会。

这种思考方式暗示了一种与特定原子簇相关的"我"的概念。确实,任何给定的计算你的原子簇有2/3的机会在红色房间里。但大多数时候我们认为"我"是"正在发生的这些想法"的意义,而同样的想法正在所有三个软件实例中共同发生。最好将"我"看作所有三个副本的集合(感谢一位朋友指出这一点),因为一个副本做什么,其他副本也做什么,至少在它们分歧之前是这样。(例如,当赌注奖金支付时,红色房间里的副本与蓝色房间里的副本分歧。)

但当我们认识到"你的算法"不是本体论原始时会发生什么?在某种意义上,你的算法在任何足够大的物理系统中都在某种解释下运行。幸运的是,这不是本体论危机的原因,因为物理主义者总是认识到人择推理不追踪宇宙中任何"正确答案"的基本性,而仅仅是一种可以应用于帮助决策的策略。每当你感到困惑时,你总是可以通过记住只有物理学是本体论原始的,而我们强加于其上的其他一切结构都是虚构的,从而回到安全地带。

你的软件副本是否也应该将自己与在房子墙壁中、太阳中心等运行的牵强解释认同?这个问题没有正确答案,因为构成"你"的东西在本体论上并不是基本的。你可以随心所欲地扩展你的身份。我们没有关于为什么你不是墙壁中的原子的人择难题,因为"你"不是一个局部化的东西。你现在正在思考的痕迹可能确实存在于你的墙壁中,这没问题。你可以同时有点儿像是你的墙壁、太阳中心和数字上传。定义"你"只是诗意。

这些都不妨碍你的算法做出关于它想如何改变世界的选择。如果你的算法选择行动A,这会产生世界X,而如果它选择行动B,这会产生世界Y。你的算法可以在道德上评估世界X和Y,决定它更喜欢哪一个,并让这影响它的选择。本文讨论的那种道德评价可以在评估X vs Y时发挥作用,即使你纯粹是一个利己主义者,但仍然对你在建筑墙壁中的牵强解释表示一些同情。

专注于非牵强解释的一个很好的实际理由是,稳健地实现你认同的算法的物理系统最有可能真正执行你做出的选择。例如,如果你的算法押注在红色房间,所有三个算法的软件副本实际上都会实施那个赌注,因为软件具有稳健的实现。同时,几乎所有之前与之相同的建筑物墙壁中你的算法的副本在下一步就不再相同,因为之前有效的牵强映射实际上并不预测物理系统的下一步。当然,我们可以事后发明进一步的映射规则,使墙壁继续跟踪你的算法,但假设我们给予牵强解释极低的权重,我们不太关心这一点,所以我们可以主要关注你的算法选择对稳健实现它的物理系统的影响。

换句话说,如果算法想产生一个物理状态,在这个状态中它最认同的物理系统赢得尽可能多的钱,它应该押注在红色房间。这将意味着它认同的三个系统中有两个赢得赌注。如果算法反而满足于认同自己的笑话解释,假装建筑物的墙壁包含它的副本赢钱,而不管彩色房间里的软件副本发生什么,那么它选择什么并不重要。

这一点在精神上类似于你应该表现得好像你不是玻尔兹曼大脑的说法,因为如果你是玻尔兹曼大脑,你的选择将几乎没有可预测的影响,因为构成你的分子几乎立即就会重组成无意义的噪音。在某种意义上,玻尔兹曼大脑是已经在逻辑上遍布宇宙的牵强算法解释的实际物理表现。虽然我没有严格思考过这个问题,但我有一些直觉,认为我的大脑在任意物理物质(如建筑物的墙壁)中应该得到的牵强映射的解释权重在数量级上应该类似于随机粒子每单位时间形成玻尔兹曼大脑的概率。这是因为我想象从物理到算法的映射就好像是小幽灵箭头随机移动来指定解释。箭头移动,最终以正确的方式指向创造大脑的解释,就像玻尔兹曼大脑形成时粒子移动并最终以正确的方式组合创造大脑结构一样。

意识的本体论

常见的说法包括:

理解这些想法有不同的方式:

不幸的是,我在其他文章中经常犯较差方式思考的错误。较差方式有问题的原因是,除了物理学定律之外的算法在本体论上并不是原始的。较差方式可能鼓励我们想象算法somehow是脱离身体的幽灵,它们栖息在适当实现它们的物理系统中。但正如我们从反对功能主义的琐碎论证中看到的,这些幽灵将不得不栖息在每个足够大的物理系统中。

像往常一样,我们可以用桌子的语言来说明同样的观点:

抽象地谈论"结构"可能会鼓励一种关于"桌子性"理想"形式"的柏拉图主义。话虽如此,我认为这种误导性的柏拉图化在算法的情况下更有可能发生,因为它们更数学化。

"意识就是物理学"这句话中的"就是"并不意味着属性之间的同一性(这将是属性二元论),而仅仅意味着"意识"是我们给予某些类型物理学的诗意名称,类似于"桌子"是我们给予某些其他类型物理学的诗意名称。就此而言,"算法"也是我们给予某些类型物理学的诗意名称——这些标签更强烈地适用于"好"解释而不是"笑话"解释——当我们意识到这一点时,说"意识就是算法"是可以的。只是很容易(至少对我来说)陷入将算法具体化为自身明确定义的对象的陷阱。我们需要记住让物理学就是物理学。我们强加于其上的任何额外结构都在我们的头脑中。

从第三人称角度很容易看出系统的好解释与笑话解释之间的差异。当应用于人类和动物时,归因某些心理算法的有意/认知立场是有用的。例如,假设我们有一个狗大脑的功能模型,我们从该模型中读出它的口渴信号正在发射。从这个知识中,我们可以预测在不久的将来,狗会去寻找它的水碗。然而,这种认知建模在应用于墙壁时是没有用的。假设我们试图声称狗的心理算法实际上是在墙壁中某种解释下的墙分子运动中实例化的。你说在某种解释下,墙壁现在正在实例化墙_狗大脑中的口渴信号;例如,你声称一些特定的分子运动代表口渴信号,这些信号正在影响代表大脑其他部分的其他分子。给定这些信息,你能预测关于墙壁物理演化的后续事实吗?例如,你能预测哪些分子会移动到哪里吗?不,"墙是狗大脑"的解释在这里完全没有帮助。墙壁的分子会以某种看似随机的方式移动,你的狗类认知模型并不能稳健地跟踪物理系统的实际因果动态。

从这个意义上说,心理算法只是预测异质现象学的模型,类似于供给和需求曲线只是预测商品价格的模型。我们不应该将算法神化到比它们应得的更高地位。

致谢

Carl Shulman的评论启发了我的一些探索,这些探索促成了这篇文章。我的一些提议可能部分受到Caspar Oesterheld的"在物理世界模型中形式化偏好功利主义"早期草稿的启发。Adrian Hutter纠正了我脚注中的一个数学错误。

脚注

  1. Chalmers以类似但不完全相同的方式讨论了编码图灵机状态。Curtis Brown评论了这个提议,声称Chalmers的组合状态自动机(本质上是一个向量列表)不是一个好的计算模型,因为它比图灵机更复杂、不那么透明,而且可以在一步中实现任何计算,甚至执行不可计算的任务。  (返回)
  2. Almond这样的程序为"算法检测器",并提出了类似的想法:

    如果一个算法检测器可以通过将一个短的检测程序应用于某个物理系统来产生某个算法A,那么我们应该期望许多其他检测程序也能产生A。然而,如果我们需要一个非常长的检测程序来产生某个算法A,当它应用于物理系统时,我们应该期望产生该算法的解释很少。

    请注意,我只是在写完这篇文章的大部分内容后才读到Almond论文的细节,所以他和我似乎收敛到了一种共同的想法。  (返回)

  3. 通常算法被认为是抽象的、数学的术语。那种类型的算法可能更精确,但在任何本体论意义上并不更"真实",因为正如我们所看到的,除了基础物理学的算法外,所有算法都是虚构的。  (返回)
  4. 我还假设计算机不使用推测执行,即它不会预先实现分支然后在它们是错误分支时丢弃它们,因为如果它这样做,那么R''中缺少的一些反事实分支将部分由R实现。  (返回)
  5. Almond在他的文章的"反对10"中讨论了这个想法:"你关于算法所说的,你也可以轻易地说关于物理对象。例如,'猫'或'椅子'的概念可以表达为解释性算法,让我们决定这些对象是否存在。问题是我们可能想象做出一个非常复杂的解释,允许我们找到一只猫或椅子,而在现实世界中并不明显存在。这是否意味着这样的对象在某种意义上存在?"  (返回)