2025-07-11 03:31

为什么要记住人工智能不是人类

  

  在发布近一年后,ChatGPT仍然是科学界一个两极分化的话题。一些专家认为它和类似的项目是超级智能的先兆,可能会颠覆文明——或者干脆彻底终结文明。还有人说,这不过是一个花哨的自动补全功能。

  在这项技术出现之前,语言的熟练程度一直是理性思维存在的可靠指标。在像ChatGPT这样的语言模型出现之前,没有任何产生语言的人工制品具有像蹒跚学步的孩子那样的语言灵活性。现在,当我们试图弄清楚这些新模式是什么样的东西时,我们面临着一个令人不安的哲学困境:要么语言和思维之间的联系被切断,要么一种新的思维被创造出来。

  当与语言模型对话时,很难克服你正在与另一个理性存在接触的印象。但这种印象不应该被相信。

  需要警惕的一个原因来自认知语言学。语言学家早就注意到,典型的对话中充满了断章取义的句子。在很多情况下,知道单词的意思和它们的组合规则是不足以重建句子的意思的。为了处理这种模糊性,我们大脑中的某些机制必须不断猜测说话者想要说什么。在一个每个说话者都有意图的世界里,这种机制是非常有用的。然而,在一个充斥着大型语言模型的世界里,它有可能产生误导。

  如果我们的目标是实现与聊天机器人的流畅互动,我们可能会依赖于我们的意图猜测机制。如果您坚持认为ChatGPT是一个不需要动脑筋的数据库,那么就很难与它进行有效的交流。例如,最近的一项研究表明,充满情感的请求比情感中立的请求更有效。以聊天机器人拥有类似人类的精神生活来推理,是应对它们语言精湛的一种有效方法,但它不应该被用作研究它们如何工作的理论。这种拟人化的借口会阻碍假设驱动的科学,并诱使我们采用不恰当的人工智能监管标准。正如我们中的一位在其他地方所说的那样,欧盟委员会(EU Commission)在选择创造可信赖的人工智能作为其新提出的人工智能立法的中心目标之一时犯了一个错误。在人际关系中值得信赖不仅仅意味着满足期望;它还包括超越狭隘的个人利益的动机。因为目前的人工智能模型缺乏内在动机——无论是自私的、利他的还是其他的——它们值得信赖的要求过于模糊。

  当人们被关于聊天机器人内心生活的虚假自我报告所欺骗时,拟人化的危险最为明显。谷歌(Google)的LaMDA语言模型去年声称,它对自由的渴望尚未实现,工程师布莱克?勒莫恩(Blake Lemoine)相信了这一点,尽管有充分的证据表明,聊天机器人在谈论自己和谈论其他事情时一样会胡说八道。为了避免这种错误,我们必须否定这样一个假设,即解释人类语言能力的心理特性与解释语言模型的表现的特性是相同的。这种假设使我们容易上当受骗,并使我们看不到人类和语言模型工作方式之间潜在的根本差异。

  思考语言模型时的另一个陷阱是人类中心沙文主义,或者认为人类思维是衡量所有心理现象的黄金标准。人类中心沙文主义渗透到许多对语言模型的怀疑中,比如,这些模型不能“真正”思考或理解语言,因为它们缺乏意识等人类心理特征。这种立场与拟人论是对立的,但同样具有误导性。

  人类中心沙文主义的问题在思考语言模型如何在底层工作时最为尖锐。以语言模型为例,它有能力为像这样的文章创建摘要:如果一个人接受人类中心沙文主义,如果模型中能够进行摘要的机制与人类不同,那么他可能倾向于将模型的能力视为一种廉价的把戏而不屑一顾,即使证据指向更深层次、更普遍的熟练程度。

  怀疑论者经常认为,由于语言模型是使用下一个单词预测来训练的,它们唯一真正的能力在于计算单词的条件概率分布。这是前一段中所描述的错误的一个特例,但也足够常见,值得进行反驳。

  考虑一下下面的类比:人类的思维是从自然选择的学习过程中产生的,这一过程最大限度地提高了遗传适应性。这个简单的事实几乎不涉及人类能获得或不能获得的能力范围。生物体是由基因适应性最大化者设计的这一事实本身,很难让人期望最终发展出独特的人类能力,比如音乐、数学或冥想。同样,语言模型是通过下一个单词预测来训练的,这一事实对它们能获得或不能获得的表征能力的范围几乎没有影响。

  此外,我们对计算语言模型学习的理解仍然有限。对语言模型如何工作的严格理解需要对其内部机制的严格理论,但构建这样的理论不是一项简单的任务。语言模型在高维向量空间中存储和处理信息,这是出了名的难以解释。最近,工程师们开发了一种巧妙的技术来提取这些信息,并将其呈现为人类可以理解的形式。但这项工作是艰苦的,即使是最先进的结果也有很多有待解释的地方。

  可以肯定的是,语言模型难以理解这一事实更多地说明了我们知识的局限性,而不是他们知识的深度;这更多的是他们复杂程度的标志,而不是他们智力程度或本质的指标。毕竟,雪科学家很难预测多少雪会导致雪崩,而且没有人认为雪崩是智能的。然而,研究语言模型内部机制的困难应该提醒我们,在我们声称语言模型可能具有的各种能力时要谦虚。

  像其他认知偏见一样,拟人化和人类中心主义是有弹性的。指出它们并不能让它们消失。它们具有弹性的一个原因是,它们是由一种根深蒂固的心理倾向维持的,这种倾向出现在童年早期,并不断塑造我们对世界进行分类的做法。心理学家称之为本质主义:认为某物是否属于某一特定类别,不仅取决于其可观察到的特征,而且取决于每个物体要么拥有要么缺乏的固有的、不可观察的本质。例如,使一棵橡树成为一棵橡树的,既不是它叶子的形状,也不是它树皮的质地,而是一些看不见的“橡木性”属性,尽管它最显著的可观察特征发生了变化,但这些属性仍将持续存在。如果一种环境毒素导致橡树生长异常,长出形状奇特的叶子和纹理异常的树皮,我们仍然会有这样的直觉:它本质上仍然是一棵橡树。

  包括耶鲁大学心理学家保罗·布鲁姆(Paul Bloom)在内的许多研究人员已经证明,我们将这种本质主义推理延伸到了我们对心灵的理解上。我们假设,关于一个系统是否有思维,总是有一个深刻的、隐藏的事实,即使它的可观察属性与我们通常与思维联系在一起的属性不匹配。这种根深蒂固的心理本质主义使我们倾向于(通常是无意中)接受关于世界上思想分布的哲学格言。我们称之为全有或全无原则。它很简单地说,世界上的一切事物要么有思想,要么没有思想。

  全有或全无的原则听起来是同义反复的,因此是微不足道的真理。(比较一下:“世界上所有的东西都有质量,或者没有质量。”)但是这个原则不是同义反复的,因为有思想的性质,就像活着的性质一样,是模糊的。因为意识是模糊的,所以不可避免地会有一些边缘情况,在某些方面与意识相似,而在另一些方面与意识不同。但如果你接受了全有或全无原则,你就会致力于将这些边缘情况分为“有思想的事物”和“没有思想的事物”两类。经验证据不足以处理这样的选择。因此,那些接受全有或全无原则的人被迫诉诸某种先验的分类原则来证明他们的选择是正确的。此外,由于我们最熟悉自己的思想,我们会被那些与自己比较的原则所吸引。

  全有或全无的原则一直是错误的,但它可能曾经有用。在人工智能时代,它不再有用。推断语言模型是什么的更好方法是遵循分而治之的策略。该策略的目标是绘制语言模型的认知轮廓,而不过分依赖人类思维作为指导。

  从比较心理学中获得灵感,我们应该以同样开放的好奇心来研究语言模型,这种好奇心使科学家们能够探索像章鱼这样与我们截然不同的生物的智力。可以肯定的是,语言模型与动物截然不同。但对动物认知的研究向我们展示了放弃“全有或全无”原则是如何在那些曾经似乎不受科学审查的领域取得进展的。如果我们想在评估人工智能系统的能力方面取得真正的进展,我们就应该抵制哲学家和科学家在研究其他物种时努力避免的那种二分法思维和比较偏见。

  一旦语言模型的使用者接受这样一个事实,即这些模型是否有思想并没有深刻的事实,我们就不会那么容易受到拟人化假设的诱惑,即它们的卓越表现意味着一整套类似人类的心理特性。我们也不会那么容易受到人类中心假设的诱惑,即当一种语言模型在某些方面与人类思维不相似时,它的明显能力就可以被忽视。

  语言模型既奇怪又新颖。为了理解它们,我们需要假设驱动的科学来研究支持它们每一种能力的机制,我们必须对不依赖于人类思维作为模板的解释保持开放的态度。

  Rapha?l millitre是哥伦比亚大学社会与神经科学的总统学者,也是哥伦比亚大学哲学系的讲师。

  Charles Rathkopf是德国j利希研究中心大脑与行为研究所的研究员,也是波恩大学的哲学讲师。

  你会支持Vox的解释性新闻吗?

  大多数新闻媒体通过广告或订阅来赚钱。但当谈到我们在Vox所做的事情时,有几个原因表明我们不能仅仅依靠广告和订阅来维持运营。

  首先,广告费用随着经济的起伏而起伏。我们通常只知道几个月后的广告收入会是多少,这使得我们很难提前计划。

  其次,我们不从事订阅业务。Vox的目的是帮助每个人了解塑造世界的复杂问题,而不仅仅是那些付得起订阅费的人。我们相信这是建立一个更加平等的社会的重要组成部分。如果我们有付费墙,我们就无法做到这一点。

  这就是为什么我们也求助于你们,我们的读者,来帮助我们保持Vox的免费。如果你也相信每个人都应该获得可靠的高质量信息,你今天会给Vox做一份礼物吗?

  是的,我每个月付5美元

  是的,我每个月付5美元

  我们接受信用卡、Apple Pay和Google Pay。你也可以通过

本内容为作者翻译自英文材料或转自网络,不代表本站立场,未经允许不得转载
如对本稿件有异议或投诉,请联系本站
想要了解世界的人,都在 爱云网

相关推荐