思维成本惊人相似:MIT发现人类与AI模型解决复杂问题的共同路径

0

在人工智能飞速发展的今天,一个引人深思的问题逐渐浮现:机器的思维方式究竟与人类有何异同?麻省理工学院(MIT)的神经科学家们最近的一项研究为我们提供了令人振奋的答案——人类与新一代AI推理模型在解决复杂问题时,展现出令人惊讶的思维模式相似性。

这项由MIT麦戈文脑研究所(McGovern Institute for Brain Research)领导的研究发现,需要最多处理能力的任务类型,对于人类和AI模型来说都是最具挑战性的。换句话说,AI模型的"思维成本"与人类思维的"认知成本"呈现出惊人的相似性。

研究背景:从语言模型到推理模型的飞跃

大型语言模型(LLMs)如ChatGPT等能够在瞬间撰写文章或规划菜单,但在过去,这些模型很容易被难倒。这些主要依赖语言模式响应查询的模型,在数学问题和复杂推理方面表现不佳。

然而,情况突然发生了变化。新一代被称为"推理模型"的大型语言模型被专门训练来解决复杂问题。与早期模型不同,这些推理模型需要时间来思考问题——就像人类一样。

"直到最近,我仍然是那些认为'这些模型在感知和语言方面表现很好,但神经网络模型还需要很长时间才能实现推理能力'的人之一,"研究的领导者、脑与认知科学系副教授Evelina Fedorenko表示。"然后这些大型推理模型出现了,它们似乎在许多思维任务上表现好得多,比如解决数学问题和编写计算机代码。"

推理模型的工作原理:逐步分解问题

与许多形式的人工智能一样,新的推理模型是人工神经网络:当给定数据和需要解决的问题时,学习如何处理信息的计算工具。

麦戈文脑研究所K. Lisa Yang ICoN中心研究员、Fedorenko实验室的博士后Andrea Gregor de Varda解释说,推理模型逐步解决问题。"在某个时候,人们意识到模型需要更多空间来执行解决复杂问题所需的实际计算,"他说。"如果你让模型将问题分解为多个部分,其性能会变得强得多。"

为了鼓励模型通过逐步引导到正确解决方案的步骤来解决复杂问题,工程师可以使用强化学习。在训练过程中,模型因正确答案而获得奖励,因错误答案而受到惩罚。"模型自己探索问题空间,"de Varda说。"导致积极奖励的动作会被强化,从而使它们更频繁地产生正确的解决方案。"

思维成本的测量:时间与标记

为了系统比较人类和AI模型的思维过程,de Varda设计了一个巧妙的实验方法。对于人类参与者,他精确测量了每个人回答每个问题所需的时间,精确到毫秒。对于AI模型,他使用了不同的指标——处理时间并不合适,因为这更多取决于计算机硬件而非模型解决问题的努力程度。

相反,他跟踪了"标记"(tokens)——模型思维链的内部组成部分。"它们产生的标记不是给用户看的,而是为了记录它们正在进行的内部计算,"de Varda解释道。"这就像它们在自言自语。"

研究发现:思维成本的惊人匹配

研究人员向人类和推理模型提供了七种不同类型的问题,包括数字算术和直观推理。对于每类问题,他们给出了许多问题实例。

研究结果令人惊讶:问题越难,人类解决它所需的时间越长;而人类解决问题所需的时间越长,推理模型在得出自己解决方案时产生的标记就越多。

同样,人类耗时最长的解决问题类型,也正是需要最多标记的模型问题类型:算术问题需求最少,而被称为"ARC挑战"的一组问题(其中成对的彩色网格表示必须推断并应用于新对象的转换)对两者来说都是最耗费成本的。

Fedorenko指出:"这种思维成本的惊人匹配展示了推理模型像人类思维的一种方式。但这并不意味着模型正在重现人类智能。研究人员仍然想知道模型是否使用与人类大脑相似的信息表示,以及这些表示如何转化为问题的解决方案。"

思维过程的本质:语言还是抽象?

尽管推理模型在解决问题时会产生内部独白,但研究人员指出,它们不一定在用语言思考。"如果你观察这些模型在推理时产生的输出,它常常包含错误或一些无意义的内容,即使模型最终得出正确答案。所以实际的内部计算很可能发生在抽象的、非语言表示空间中,类似于人类不使用语言进行思考的方式,"de Varda解释道。

这一发现对理解人工智能的认知机制具有重要意义。它表明,即使AI系统使用与人类不同的基础架构,它们在解决复杂问题时可能发展出相似的思维策略。

研究意义与未来方向

这项研究的一个重要意义是,它挑战了我们对人工智能与人类认知关系的传统理解。尽管AI模型的开发并非刻意模仿人类思维,但它们在解决复杂问题时展现出的"思维成本"模式与人类惊人地相似。

"构建这些模型的人并不关心它们是否像人类一样工作。他们只希望系统能在各种条件下稳健运行并产生正确响应,"Fedorenko说。"存在某种收敛现象的事实确实相当引人注目。"

未来的研究将探索几个关键问题:模型是否使用与人类大脑相似的信息表示?这些表示如何转化为问题解决方案?模型能否处理需要训练文本中未明确说明的世界知识的问题?

对人工智能发展的启示

这项研究对我们理解和开发人工智能具有深远影响。首先,它表明AI系统可能比我们想象的更接近人类的认知方式,这为开发更自然的人机交互系统提供了可能。

其次,研究强调了"思维时间"在AI系统中的重要性。与早期大型语言模型不同,推理模型需要时间来处理复杂问题,这一发现提示我们,未来的AI系统设计可能需要更注重"思考过程"而非仅仅追求即时响应。

最后,这一发现也引发了关于AI伦理和透明度的新思考。如果我们能够理解AI模型的"思维过程",我们就能更好地预测它们的行为,减少不可预测的风险。

结论

MIT的这项研究揭示了人类与AI模型在解决复杂问题时展现出的惊人相似性。尽管这种相似性并非刻意设计,但它为我们理解人工智能的认知机制提供了宝贵视角。随着AI技术的不断发展,这种对人类与机器思维模式比较的研究将变得更加重要,它不仅有助于我们开发更智能的AI系统,也能让我们更深入地理解人类自身的认知过程。

正如研究人员所言,"思维成本的相似性"这一发现只是开始,它为我们打开了一扇探索人工智能与人类认知关系的全新大门。在这个人工智能与人类认知日益交织的时代,理解这种关系将是我们共同面对未来的关键。