MIT突破:测试时训练如何使LLM在复杂推理中更上一层楼?

1

在2025年,麻省理工学院(MIT)的研究人员取得了一项突破性进展,他们开发出一种能够显著提升大型语言模型(LLM)在复杂任务中适应性的方法。这项研究成果发表在MIT News上,预示着LLM在战略规划、流程优化等领域的应用前景将迎来质的飞跃。

A robot holds a lightbulb, surrounded by chalkboards.

该研究的核心在于一种名为“测试时训练”(Test-Time Training)的技术。简单来说,就是在LLM部署后,针对特定任务,利用少量示例数据对模型进行微调。MIT的研究团队发现,通过策略性地应用这种方法,LLM的准确率可以提升高达六倍。这一发现无疑为解决LLM在处理需要复杂推理技能的新任务时表现不佳的问题,提供了一个极具潜力的解决方案。

LLM的局限性与日俱增

尽管LLM在诸多领域展现出了强大的能力,但其局限性也日益凸显。例如,一个擅长总结财务报告的LLM,在面对预测市场趋势或识别欺诈交易等任务时,可能会表现得差强人意。这种“术业有专攻”的现象,限制了LLM在更广泛领域的应用。

为了打破这一瓶颈,MIT的研究人员将目光投向了测试时训练。他们深入研究了如何通过巧妙地部署这种技术,来提升LLM在处理不熟悉、高难度问题时的性能。

测试时训练:LLM适应性的关键

测试时训练是一种在模型部署期间,通过临时更新模型内部参数来提高其性能的方法。MIT的研究团队通过实验证明,这种方法能够显著提高LLM的准确率。更重要的是,他们还开发了一个框架,用于指导测试时训练策略的实施,从而最大限度地提高LLM在新任务中的性能。

这项研究的意义在于,它为LLM的灵活性提升开辟了一条新的道路。通过测试时训练,我们可以使“开箱即用”的LLM能够适应需要规划或抽象的复杂任务。这将使LLM在医疗诊断、供应链管理等诸多需要逻辑推理的应用中,表现得更加出色。

该研究的第一作者Ekin Akyürek博士(2025届)表示:“真正的学习——我们在这里通过测试时训练所做的事情——是这些模型在交付后无法自行完成的。他们无法获得新技能或更好地完成任务。但我们已经表明,如果你稍微推动模型进行实际学习,你会发现性能会发生巨大的提升。”

研究团队

Akyürek的合作者包括研究生Mehul Damani、Linlu Qiu、Han Guo和Jyothish Pari;本科生Adam Zweiger;以及资深作者Yoon Kim(电气工程与计算机科学(EECS)助理教授,计算机科学与人工智能实验室(CSAIL)成员)和Jacob Andreas(EECS副教授,CSAIL成员)。该研究成果将在国际机器学习大会上发表。

攻克硬领域

LLM用户经常尝试使用一种称为上下文学习的技术来提高其模型在新任务上的性能。他们向模型提供一些新任务的示例作为文本提示,以指导模型的输出。

但是,上下文学习并不总是适用于需要逻辑和推理的问题。

MIT的研究人员研究了如何将测试时训练与上下文学习结合使用,以提高在这些具有挑战性的任务上的性能。测试时训练涉及使用少量特定于手头任务的新数据来更新一些模型参数(模型用于进行预测的内部变量)。

研究人员探讨了测试时训练如何与上下文学习相互作用。他们研究了可以最大限度地提高通用LLM性能的设计选择。

Damani说:“我们发现测试时训练是一种更强大的学习形式。虽然简单地提供示例可以适度提高准确性,但实际使用这些示例更新模型可以带来显着更好的性能,尤其是在具有挑战性的领域。”

上下文学习需要一小组任务示例,包括问题及其解决方案。研究人员使用这些示例来创建测试时训练所需的特定于任务的数据集。

为了扩大此数据集的大小,他们通过稍微更改示例中的问题和解决方案来创建新的输入,例如通过水平翻转一些输入数据。他们发现,在新的数据集的输出上训练模型可以带来最佳性能。

此外,研究人员仅使用一种称为低秩自适应的技术来更新少量模型参数,这提高了测试时训练过程的效率。

Akyürek说:“这很重要,因为我们的方法如果要在现实世界中部署,则需要高效。我们发现,通过少量参数训练,您可以获得巨大的准确性提升。”

开发新技能

简化流程是关键,因为测试时训练是按实例进行的,这意味着用户需要为每个单独的任务执行此操作。对模型的更新只是暂时的,并且模型在进行预测后会恢复到其原始形式。

Akyürek补充说,通常需要不到一分钟的时间来回答查询的模型可能需要五到十分钟的时间才能通过测试时训练来提供答案。

他说:“我们不想对所有用户查询都这样做,但是如果您想让模型很好地解决一个非常困难的任务,这将非常有用。对于LLM来说,如果没有这种方法,有些任务可能太具有挑战性而无法解决。”

研究人员在两个极其复杂的问题的基准数据集(例如智商难题)上测试了他们的方法。与仅使用上下文学习的技术相比,它将准确性提高了多达六倍。

涉及结构化模式或使用完全不熟悉的数据类型的任务表现出最大的性能改进。

Damani说:“对于更简单的任务,上下文学习可能还可以。但是更新参数本身可能会在模型中开发出新的技能。”

将来,研究人员希望利用这些见解来开发不断学习的模型。

长期目标是,给定一个查询,LLM可以自动确定是否需要使用测试时训练来更新参数,或者是否可以使用上下文学习来解决任务,然后无需人工干预即可实施最佳的测试时训练策略。

这项工作得到了MIT-IBM Watson AI实验室和国家科学基金会的部分支持。

实际应用与未来展望

这项研究的潜在应用领域十分广泛。例如,在医疗领域,医生可以利用测试时训练来微调LLM,使其能够更准确地诊断罕见疾病。在金融领域,分析师可以利用该技术来提高LLM预测市场走势的准确性。在供应链管理领域,企业可以利用该技术来优化物流和库存管理。

展望未来,研究团队希望能够开发出能够持续学习的LLM。他们的最终目标是,LLM能够根据用户提出的问题,自动判断是否需要使用测试时训练来更新参数,或者是否可以通过上下文学习来解决问题。更重要的是,他们希望LLM能够在无需人工干预的情况下,自主选择最佳的测试时训练策略。

结论

MIT的这项研究成果,为LLM的发展指明了一个新的方向。通过测试时训练,我们可以显著提升LLM在复杂任务中的适应性和准确性,从而使其在更广泛的领域发挥更大的作用。随着研究的深入和技术的不断发展,我们有理由相信,未来的LLM将变得更加智能、更加灵活、更加强大。

局限性与挑战

尽管测试时训练展现出了巨大的潜力,但我们也必须清醒地认识到,这项技术仍面临着一些局限性和挑战。首先,测试时训练需要在模型部署后进行微调,这可能会增加计算成本和时间成本。其次,测试时训练的效果受到示例数据的质量和数量的影响。如果示例数据不足或存在偏差,可能会导致模型性能下降。此外,如何自动选择最佳的测试时训练策略,仍然是一个尚未完全解决的问题。

伦理考量

随着LLM在社会生活中的应用越来越广泛,伦理问题也日益凸显。例如,LLM可能会被用于生成虚假信息或进行歧视性决策。因此,在推广和应用测试时训练技术的同时,我们也必须高度关注伦理问题,并采取有效措施来防范潜在的风险。

迈向更智能的未来

总而言之,MIT的这项研究成果是一项重要的突破,它为LLM的发展开辟了新的道路。通过测试时训练,我们可以使LLM变得更加智能、更加灵活、更加强大。然而,我们也必须清醒地认识到,这项技术仍面临着一些局限性和挑战。只有通过不断的研究和创新,才能克服这些挑战,并最终实现LLM的全部潜力。我们有理由相信,在不远的将来,LLM将在各个领域发挥更加重要的作用,为人类社会带来更加美好的未来。