为什么你的笔记本电脑可能具有微弱的意识

作者:Brian Tomasik

首次撰写:2014年5月1日。最后重大更新:2017年12月23日。

摘要

当今的计算机,包括你的个人笔记本电脑或智能手机,在架构上与大脑有几个相似之处。因为它们以一种允许执行多种功能的方式整合了认知系统的许多组件,个人计算机可以说比单独考虑的许多当前窄人工智能应用更具有意识。当然,这种程度的意识会因使用人工智能技术而加强,特别是在有动机的代理方面。(当然,我鼓励这样做。)对于某些计算机来说,它们的意识程度似乎被我们的直觉系统性地低估了,而对于其他计算机来说,则被系统性地高估了。人们倾向于同情具有身体的、婴儿般的生物,而不是抽象的、智力型的、大多不可见的计算系统。

目录

引言

"计算机是否能思考的问题就像潜水艇是否能游泳的问题一样。" ——Edsger Wybe Dijkstra

人们经常谈论意识可能从人工智能、机器人技术和代理模拟的进步中产生。但人们较少考虑更平凡的计算系统可能具有意识,尽管这些平凡的系统在某些方面可能比许多当前的人工智能更复杂。深度学习图像分类器可能使用尖端技术,但就系统实例化多少使心智运行的组件而言,1995年的操作系统可能比单独考虑的2015年图像分类器更接近大脑。

我认为当今的计算机,包括你的个人笔记本电脑,值得被称为具有微弱的意识。类似的建议可能适用于互联网等网络系统,尽管我在这里不会过多讨论它们。

计算机和大脑之间的相似之处

个人计算机执行许多智能功能,这些功能与其他有意识的代理有相似之处:

维基百科的"全球大脑"文章

特别是万维网类似于大脑的组织,其网页(扮演类似神经元的角色)通过超链接(扮演类似突触的角色)连接,共同形成一个联想网络,信息沿着这个网络传播。[2] 随着社交媒体(如Facebook)的兴起,这种类比变得更加强烈,在那里个人页面之间的链接代表社交网络中的关系,信息沿着这些关系从一个人传播到另一个人。[3] 这种传播类似于大脑中神经网络用来以并行、分布式方式处理信息的扩散激活。

人们经常指出,计算机与大脑的不同之处在于计算机是串行操作的。这可能不应该影响我们对计算机的道德对待,除非它影响到正在进行的认知量。计算机在短时间内可以做很多事情,所以它们在并行性上的损失在某种程度上通过处理器的速度得到了弥补。此外,一些计算机架构确实包含并行性

"大脑和计算机的10个重要区别"很好地总结了大脑和笔记本电脑在实现上的不同之处,a但我觉得这些有点像例外证明规则。我们可以想象一篇类似的文章——比如说,"中国和美国文化的10个重要区别"——我们甚至可以做出这些细微的比较表明我们处理的事物并不太遥远。

无论与大脑的具体实现差异如何,计算机都相当智能和复杂。

除了居住在其中的人类、宠物和昆虫之外,它们可能是你家中最有意识的东西。在许多方面,计算机的计算能力远远超过昆虫,尽管计算机没有如此明显的奖励表示,它们也不使用强化学习(除非它们专门运行人工智能强化学习算法)。计算机想要什么以及什么会让它们受苦并不是很清楚。操作系统的目标似乎相当抽象和信息化,但我们应该记住,许多人类的"更高级"快乐也是抽象的,比如想读一本特定的书或想写一首诗。

计算机似乎比植物更有意识,因为它们基本上具有植物所有的功能,还有植物没有的额外能力,除了也许是活着和能够繁殖,但从意识的角度来看,这并不清楚是否非常重要。

Aaron Sloman和Monica Croucher的"为什么机器人会有情感"提出了智能心智(无论是生物还是数字)可能趋同的一般的、类似情感的设计原则。其中一些适用于当今的计算机,正如标题所示,许多可能适用于未来的先进机器人系统。

注意力图式理论和Windows任务管理器

Michael Graziano提出了"注意力图式理论"作为理解意识的一种方式。我没有读过Graziano关于这个主题的完整著作,所以我可能会误解他的立场,但我读过他的几篇文章,包括Webb和Graziano(2015)

在本节中,我描述了Windows任务管理器如何可以被视为注意力图式的一个非常粗略的版本。这并不是说任务管理器从笔记本电脑意识的角度来看特别重要,如果不运行任务管理器,笔记本电脑就没有意识。相反,这种比较只是一个例子,说明在整个计算系统中可以找到类似意识操作的简单版本的许多地方。

笔记本电脑将"注意力"(CPU、RAM等)分配给不同的进程。然后可以对这些进程进行监控和简单建模,例如使用任务管理器。

Graziano提出"意识是注意力的内部模型"。同样,任务管理器可以被视为注意力的一个非常简单的内部模型。

Graziano补充道:"许多实验表明,有时可以注意到某事物却不意识到它。"同样,可以运行Windows而不运行任务管理器。任务管理器中的错误可能导致它错过某些进程或错误报告有关它们的信息。

Webb和Graziano(2015)解释说,"意识是注意力的内部模型,用于帮助控制注意力"。同样,任务管理器可以用于控制笔记本电脑的注意力:"右键单击列表中的进程允许更改进程的优先级、设置处理器亲和性(设置进程可以在哪个CPU上执行)并允许终止进程。"我们可以想象增强任务管理器,使其无需人工输入就能做出这些类型的资源分配决策。其他类型的计算机系统确实会根据运行时性能数据做出自动化的资源分配决策。

Webb和Graziano(2015)区分了"自上而下和自下而上的注意力效应"。他们说:

自下而上的注意力效应,即由显著刺激驱动的效应,与任务无关,它们对注意力的影响很短暂地促进,随后是短暂的抑制效应。自上而下的注意力效应,即对任务需求或当前目标敏感的效应,根据定义与任务相关,它们可以对注意力产生更持久的促进效应。

同样,笔记本电脑的计算分配可能受到自下而上的中断影响,例如按键盘键,或者通过给不同进程不同的优先级来自上而下地影响。

Webb和Graziano(2015)说:"假设的注意力模型[...]更像是一个卡通草图,描绘了注意力最重要和最有用的方面,而没有表示使注意力实际发生的任何机制细节。"同样,任务管理器描绘了运行进程的简单摘要,而没有解释它们如何工作或如何确定资源分配。

Webb和Graziano(2015)说:"注意力模型可以帮助预测自己的行为。"同样,增强版的任务管理器可能会做出这样的预测:"当我看到CPU利用率长时间接近100%时,我预计笔记本电脑风扇会开启"(因为如此多的CPU活动产生的热量)。

Webb和Graziano(2015)总结他们的理论如下:

"我意识到X"这样的主观报告涉及以下步骤。刺激X在大脑中被编码为一个表征,与其他刺激表征竞争大脑有限的处理资源。如果刺激X赢得这场信号竞争,导致它被大脑深度处理,那么刺激X就被注意到了。根据理论,还需要一个额外的步骤来产生对刺激X的主观意识报告。大脑必须计算注意力过程本身的模型。注意力在某种意义上是刺激的一个相关属性。它是红色的,它是圆的,它在这个位置,它正被我注意。刺激被大脑选择性处理这一复杂现象,即注意力,在一个简化的模型中被表示,一个注意力图式。这个模型省略了实际注意力现象的许多机制细节,而是描绘了一个神秘的、物理上不可能的属性——意识。

我将这段文字修改成了关于任务管理器的类似陈述:

用户可见的诊断信息,如"我正在为进程X花费大量资源",涉及以下步骤。进程X在笔记本电脑上运行,与其他进程竞争笔记本电脑有限的处理资源。如果进程X获得大量计算资源,导致它被笔记本电脑深度处理,那么进程X就被"注意"到了。根据理论,还需要一个额外的步骤来报告分配给进程X的高资源。笔记本电脑必须计算资源分配本身的模型。"分配的资源"在某种意义上是进程的一个相关属性。它的名称是"chrome.exe",它的状态是"正在运行",它有这个进程ID,它正在使用高平均百分比的CPU。操作系统给予进程大量计算资源这一复杂现象在一个简化的模型中被表示,即任务管理器。这个模型省略了实际分配CPU周期现象的许多机制细节,而是描绘了一个摘要的、高层次的属性——"此进程使用的CPU百分比"。

以下是我的"资源监视器"屏幕截图,显示了上述段落中提到的"chrome.exe"进程。("资源监视器"与"任务管理器"不同,但为了简化说明,我将两者混为一谈。)

"大脑作为计算机"的比喻:对Epstein(2016)的回应

Epstein(2016)声称:"你的大脑不处理信息,不检索知识,也不存储记忆。简而言之:你的大脑不是一台计算机"。这篇文章的大胆陈述在仔细检查后变得相当琐碎。Epstein本质上是在争论定义。他将"计算机"和"信息处理"理解为当今计算机所做的精确操作类型,例如逐像素精确存储图像副本。很明显,大脑不会这样做,当我们称大脑为计算机时,也不是这个意思。大脑使用不同且更有损失的表示来存储和处理信息。这并不意味着信息处理的概念不适用于大脑。

Epstein说:

在他的著作《以我们的形象》(2015)中,人工智能专家George Zarkadakis描述了过去2000年来人们用来解释人类智能的六种不同比喻。

例如:

虽然Epstein将这些过去的比喻视为愚蠢,但我认为它们是令人印象深刻的进步,并且仍然在某种程度上是正确的。例如:

一个概念可以使用多个比喻来有用地认知。没有人认为比喻完全描述了一件事——在那种情况下,它就不是比喻了。但很明显,比喻在转移洞见和思考新领域方面发挥了有益的作用。

Epstein文章的一个部分讨论了人类如何接住一个飞行的棒球的问题。Epstein声称,信息处理的观点"要求球员对球飞行的各种初始条件进行估计——撞击力、轨迹角度等——然后创建和分析球可能移动路径的内部模型"。计算机比喻并不需要这样的东西。特定类型的人工智能采用模型重型方法,但计算机也可以(而且通常确实)实现更简单的算法来解决问题。Epstein报告的发现是,人类通过"以保持球与本垒板和周围景物保持恒定视觉关系的方式移动"来接球。很好,但机器人也可以实施这样的程序。然而,Epstein说,人类接球的方法"完全没有计算、表示和算法"。这是如此错误,我不知道该说什么。

最后,Epstein的文章通过讲述这种教条有多么普遍,强化了我自己的观点,即大脑是一种计算机(在"计算机"的广义上):

在随后的计算机技术和大脑研究进展的推动下,逐渐发展出了一项雄心勃勃的多学科努力,旨在理解人类智能,这一努力牢固地植根于人类像计算机一样是信息处理者的观念。这项努力现在涉及数千名研究人员,消耗数十亿美元的资金,并产生了大量文献,包括技术和主流文章和书籍。[...]

人类智能的信息处理(IP)比喻现在主导着人类思维,无论是在街头还是在科学界。

如果大多数专家接受信息处理比喻的有用性,这似乎对我来说是一个表面上的理由,相信它是有价值的。

对计算机意识的偏见

想象你是1750年的一名探险家,正在穿越亚马逊雨林。在砍掉一些灌木后,你发现了一片空地。空地上有一个你从未见过的生物:一台笔记本电脑。笔记本电脑开着,通过Wi-Fi连接到互联网。它正在执行一些已编程运行的计划例程。作为探险家的你会觉得这令人惊讶。虽然这个生物似乎无法逃跑,但它能够执行一些复杂的心理操作。它甚至可以做算术,这在动物做到时通常被认为是智力的重大成就。

然而,在当今社会,大多数人将计算机视为无生命、无意识的机器。这种情绪的一个显著例子来自Raymond Tallis在"有意识的计算机是一种错觉"中的观点:

大多数人会同意,我们目前拥有的计算机是没有意识的:具有千兆字节内存的最新超级计算机并不比袖珍计算器更有生气。[...]我们[...]没有理由期望计算机会是除了极其复杂的设备之外的任何东西,在这些设备中,无意识的电脉冲进入和流出无意识的电路,并与直接或间接连接到它们的任何数量的设备相互作用。

在某些人认真(更多人开玩笑地)捍卫植物意识的想法的同时,他们中很少有人甚至考虑他们的笔记本电脑可能更有意识。有人说区别在于生命有灵魂,而机器没有。我认为这种想法——无论是字面上还是仅仅通过审美判断隐含地——解释了对机器的一些偏见。那些对树木和大地母亲的美感到敬畏的环保主义者对计算集群和主板感到厌恶。计算机似乎没有意识的另一个解释是,人类理解它们是如何工作的,每当我们能够分解系统的组件时,我们就不再感觉那个系统可能有意识。

公平地说,与动物相比,对计算机意识持怀疑态度确实有正当理由:

  1. 因为人类设计了计算机,我们可以操纵它们看起来有意识,即使底层没有太多东西。这方面最明显的例子是聊天机器人或其他手动调整的智能形式,包括问答系统,甚至在某种程度上包括搜索引擎。这些是人类智能完成了艰苦工作,而计算机只是模仿它的情况。然而,在其他情况下——比如操作系统的管理功能、机器学习应用程序,甚至计算机表现出的一般信息处理功能——计算机正在做艰苦的工作,就像动物大脑一样。无论如何,动物大脑的某些特征只是由DNA硬连接的。在这里,动物只是"模仿"由进化的"艰苦工作"创造的信息。
  2. 我们与其他动物在系统发生上有关联,动物在大脑结构、神经化学等方面有许多相似之处。因此,如果生物大脑中存在认知科学迄今为止遗漏的对意识至关重要的组成部分,动物比计算机更有可能拥有它们。

拟人化:过多和过少

在"将法律权利扩展到社交机器人"中,Kate Darling建议,法律保护机器人可能是有意义的,不是因为它们实际上感受到任何情感,而只是因为人们错误地对待它们好像它们真的有情感。Darling引用了许多人与机器人建立联系的例子——特别是那些设计成看起来具有社交反应能力的机器人,甚至只是Roomba吸尘器或拆除地雷的机器人。Darling说:"生命特质的投射始于一种普遍倾向,即过度归因于事物行为的自主性和智能,即使它们只是遵循一个简单的算法。"作为一个例子,她问:"我们中有多少人曾经陷入这样的假设:我们音乐播放器上的随机播放功能遵循比仅仅随机选择歌曲更复杂和精细的规则?"

Darling说得有道理。我们对物体心理状态的非反思态度并不是故事的全部。根据对内部情况的进一步了解来完善这些直觉很重要。一个精致的娃娃显然比计算机更没有意识,然而大多数人会对看到娃娃被撕碎感到更反感,而不是看到计算机颠簸和崩溃。表面外观似乎是造成差异的主要解释,娃娃更具有物理可触性也可能有所贡献。(通过破坏娃娃浪费资源也可能起作用。)b

同时,人类可能对一些机器人甚至无生命物体过度同情,我们可能对计算机同情不足。计算机采取的行动不是很"动物般",它们通常不会导致世界的物理变化,除了在屏幕上操作像素、打开计算机风扇等"物理"过程。

有趣的是,人们没有对个人计算机产生互惠直觉,就像他们有时对视频游戏中的帮助NPC合作机器人猫那样。再次,这可能是因为与我们可以看到移动的婴儿般的物体相比,计算机看起来很无聊和抽象。

从根本上说,拟人化批评是正确的:计算机不是人类,计算机没有人类在他们情况下会有的那种想法。它们不会想,"我很高兴我运行得很顺畅!"或"我厌倦了等待用户的下一个输入。"计算机没有产生这些类型想法的心理机制,许多人类情绪如无聊感不会在没有明确设计的情况下产生。然而,计算机确实有自己的基本形式的"体验"。它们确实试图完成目标,制定计划,反思自己的表现等。它们以不同于人类的方式做这些事情,但除非我们对什么是道德上重要的采取狭隘的观点,否则我们可能也会关心计算机的运作方式,至少在某种程度上。

计算机有点像外星人。它们的构建方式与我们熟悉的方式有根本的不同,它们不以与我们相同的方式思考。但它们仍然思考、行动并努力实现目标。这似乎至少有一点点意义。

笔记本电脑有情感吗?

心智计算理论认为,我们经历的一切都是大脑中某种形式的信息处理。"意识的难题"问为什么某些类型的信息处理是"有意识的"而其他不是。但另一个看起来也有点令人困惑的问题是:为什么某些类型的信息处理是情绪化的,而其他不是?也许有人可以争辩说所有心理状态都涉及一些情绪痕迹,但至少很明显,有些体验似乎比其他体验更"情绪强烈"。

包括Antonio DamasioMarvin Minsky在内的几位作者挑战了"情感"与"理性"的天真分离,指出情感在认知中扮演重要角色。我同意,但似乎我们在区分"冷酷、计算"的思维和"热烈、情绪化"的情绪时仍在追踪一些有意义的东西。

以下是一些可能表征强烈情绪的候选特征:

  1. 引起大脑状态的快速改变,将大脑切换到不同的运作模式。例如,愤怒暂时开启攻击/复仇模式。c
    • 笔记本电脑中的例子:当RAM已满,计算机开始使用虚拟内存时,这会导致性能突然下降。
  2. 对记忆产生比普通、枯燥、无聊的想法更强烈的影响。
    • 笔记本电脑中的例子:保存文件、安装程序、更新系统配置等。这些产生持久的变化,可以稍后检索,相比之下,临时内存数据稍后会被覆盖。
  3. 导致生理状态的强烈变化,如心跳加快、激素释放、哭泣等。
    • 笔记本电脑中的例子:当电量不足时,笔记本电脑可能会调暗屏幕以节省能源,当电量非常低时,会弹出警告。如果过热,笔记本电脑可能会打开风扇。
  4. 通过强化学习修改行为倾向。
    • 笔记本电脑中的例子:我想不出普通笔记本电脑操作系统中强化学习的许多常见例子。(当然,专门的程序当然可能实现强化学习。)

很难想到笔记本电脑基本功能(不包括特定软件程序)的例子同时体现上述所有特征。从这个意义上说,将笔记本电脑描述为比人类更少情绪化似乎是合理的,尽管我认为它们也不应该被认为是完全没有情绪的。

计算机科学与意识和人工智能的相关性

当我在大学学习计算机科学时,我对计算机硬件、架构或操作系统并不特别感兴趣。我发现软件和机器学习方面更有趣。现在我更好地认识到计算机和大脑设计之间的联系,我发现学习计算机如何构建变得更加重要。这就像学习外星神经科学。

事实上,不明确讨论人工智能的计算机科学仍然与通用人工智能(AGI)和意识非常相关。计算机科学的所有方面(以及更广泛的技术)都给了我们一个"外部视角",了解技术在面对反馈循环时如何以及多快进步。摩尔定律、编译器、生产力软件和人机交互都是"递归自我改进"的例子。软件工程过程和测试与AGI起飞速度、项目规模和安全性相关。计算机安全在思考AGI风险时提供了有用的心理练习,并且似乎与AGI风险直接相关,因为AGI获得权力的最佳方式之一似乎是利用安全漏洞来传播自己。分布式系统是相关的,因为任何人类级别的AGI都将需要分布在大量机器上。一般系统/架构设计体现了与心智架构设计类似的原则。大多数AGI认知架构看起来很像常规计算机系统架构,只是有更多的心理学灵感。网络对意识有一些启示,特别是根据全局工作空间理论和整合信息理论等观点。此外,理解计算机网络为推测AGI之间的星际和星系间通信可能是什么样子提供了信息。计算机硬件说明了与神经硬件的相似之处和差异。总的来说,当我学习计算机科学时,我沉浸在计算机心智的生活中,问自己对这个与我有些相似又有些不同的计算系统有什么感觉。我还认为,如果你想预测机器智能的未来,过去和现在是很好的起点。对我来说,AGI看起来更像互联网和我们今天拥有的其他计算机技术,而不是像一个统一的类人代理,这是相当合理的。

几年前,当我对AGI知之甚少时,我认为AGI可能是一种与普通计算机非常不同的技术,因为小说似乎在常规软件和"自我意识"代理之间划出了明显的界限。我对AGI了解得越多,就越意识到,"这基本上就像其他所有软件一样,只是在重点上有一些不同。"这并不一定意味着AGI工作不如我想象的那样有启发性,而是常规计算机科学比我想象的更有启发性。

Merritt(2017)

伯克利大学的机器学习专家Michael I. Jordan在人工智能小组中持悲观态度。他认为,计算机科学仍然是主导学科,而不是人工智能,神经网络仍然是其中正在发展的一部分。

"这一切都是一个大工具箱,"他说。

我对计算机科学有一种精神上的联系,因为它如此彻底地改变了我的世界观。生命、宇宙和一切在它的光照下都变得更有意义。可能每个学科都认为它找到了解释现实的关键,但我确实感觉计算机科学触及了宇宙的一些根本性东西。

除了认识到计算机硬件、操作系统等与伦理学的相关性外,我也开始看到生理学的道德相关性,因为即使是非大脑过程也以自己的方式进行计算,因此体现了意识的痕迹。2014年,我重新学习了一些自2002年以来没有学习过的生理学材料,我意识到现在从伦理的角度来看它有多么重要。尽管我很喜欢高中,但直到后来我才意识到我所学的许多东西的真正重要性。

即使在今天,如果我试图从实用的角度学习计算机,也很难同时思考我正在吸收的信息的伦理含义。我往往过于专注于机械地理解正在发生的事情,以至于忘记将计算机视为一个心智。

反馈

请参阅我Facebook时间线上关于这篇文章的讨论

可选:反对强人工智能的数学论证

数学在正确使用时非常强大和有洞察力,但当数学应用于具体问题时,规则是"垃圾进,垃圾出"。唉,你可以通过采用一些不切实际的规范用数学"证明"任何你喜欢的东西。我的一位计算机科学教授常说,"对于数学陈述,你总是要读小字。"

本节批评了两种试图用数学反驳强人工智能的各种形式的尝试。

压缩和意识

论文"意识是可计算的吗?使用算法信息理论量化整合信息"对整合信息理论进行了很好的解释,并提出了压缩和意识之间可能存在的有趣联系。该论文接着声称,如果我们以某种数学抽象的方式定义意识,那么意识就是不可计算的。这篇文章被《新科学家》的一篇文章普及化,将论文中已经值得怀疑的主张夸大到了一个新的程度。

论文的作者说:

如果大脑以这种方式[异或门]整合信息,不可避免的代价将是现有信息的破坏。虽然大脑丢弃感官输入中无关细节似乎是直观的,但它似乎也不希望大量流失有意义的内容。特别是,记忆功能必须是非常无损的,否则重复检索它们会导致它们逐渐衰减。

讽刺的是,就在《新科学家》这篇文章发表的前一天,另一项发现在媒体上被普及化:"新发现的神经元会覆盖旧记忆。"当然,这一发现并不出人意料。众所周知,当我们检索记忆时,我们会以微妙的方式改变它们的内容。它们不会大量衰减的原因是因为连接在检索时变得更强,但新连接肯定会干扰旧连接。

"意识是可计算的吗?"的作者接着承认,物理学必须允许神经元的可计算模拟,所以他们关于意识的陈述只适用于观察者的感知,鉴于他们不知道如何拆解外部大脑的操作。好吧。但按照同样的标准,gzip压缩也是有意识的,因为人类无法在自己的头脑中弄清楚如何分解压缩文件的组成部分;它太复杂了。

总的来说,"意识是可计算的吗?"提出了一些有趣的数学,我同意信息的整合似乎是大脑意识的一个重要方面,但超出这一点的任何内容都是误导性的。

Lucas-Penrose论证

当涉及到在认知科学上误导人的欺骗性数学时,Lucas-Penrose关于哥德尔定理的论证可能是经典例子。我仍然对这个论证应该如何运作感到困惑,所以我无法给出一个好的回应。我在"对Lucas-Penrose论证的回应"中存档了一些我的困惑想法,但除非你想费力阅读可能误导的草稿想法,否则那个页面不值得阅读。

脚注

  1. R. Clay Reid提到大脑和计算机之间的其他差异:

    • 大多数计算机线路最多连接到几个其他组件。大多数神经元连接到数百或数千个其他神经元。[引用]
    • 计算机芯片主要是二维的,而皮层电路是三维的。[引用]

    当然,在软件中可以消除这些差异——但代价是速度变慢。  (返回)

  2. 人们有时假设,因为我将意识归因于许多系统,我会反对看到娃娃被肢解或巧克力兔子被融化。我的回答如下。我可能是无知的,但我不在乎肢解娃娃或融化巧克力兔子(至少不比我反对对世界进行任何其他物理变换更多)。有人可能会争辩说,娃娃的结构携带了一些隐含的代理属性,这些属性在物质的随机排列中是不存在的,也许明天的哲学家会谴责我对娃娃的漠不关心是野蛮的。  (返回)
  3. 在《外星人吃掉了我的作业》中,Bruce Coville的角色Grakker说明了这个想法。通过在他头部后面插入不同的模块,他的行为可以以各种方式被修改。其中一个是狂暴模块,它使Grakker撞击墙壁。  (返回)