MIT研究「测试时训练」,突破OpenAI Scaling Law限制

MIT研究「测试时训练」,突破OpenAI Scaling Law限制

人工智能领域的最新突破表明,测试时训练(TTT)方法可以显著提高模型在复杂推理任务中的性能,即使是那些以前被认为需要符号组件或显式老式符号逻辑的任务。

麻省理工学院的研究人员进行了一项研究,系统地调查了各种TTT设计选择的影响,并将其与预训练和采样方案之间的相互作用进行了比较。他们发现,TTT可以显著提高大语言模型(LLM)在抽象推理语料库(ARC)上的准确率,这是一个被认为是测试LLM泛化极限的理想基准。

具体来说,研究人员确定了TTT有效应用于小样本学习的几个关键要素:

* 在与测试时类似的合成任务上进行初始微调

* 用于构建测试时数据集的增强型留一法任务生成策略

* 训练适用于每个实例的适配器

* 可逆变换下的自我一致性方法

此外,研究人员发现,TTT可以缩小不同级别模型之间的差距,表明即使是较小的模型也可以通过TTT显著提高其性能。

TTT背后的概念是利用测试时输入构建辅助数据集,并在预测前更新模型。研究人员探索了不同的数据生成方法、推理策略和微调方法,以优化TTT的性能。

ARC中每项任务都由输入-输出对组成,模型需要通过推理潜在变换来预测测试输入的测试输出。研究人员使用在文本数据上预训练的LLM,并开发了一个格式化函数将二维网格转换为文本表示。

实验结果表明,TTT将LLM在ARC上的准确率提高了近20%,超过了现有端到端神经模型的结果。更重要的是,TTT可以与现有方法相结合,进一步提高性能。

与神经-符号方法的比较表明,配备TTT的神经模型可以解决与程序合成模型类似的推理模式,表明TTT可以提高神经模型学习系统推理模式的能力。

研究人员认为,TTT方法的发现挑战了这样的假设:解决复杂推理任务必须依赖于符号组件。相反,他们表明,解决新推理问题的关键因素可能是分配适当的计算资源,也许与这些资源是通过符号还是神经机制部署无关。

这项研究为人工智能的发展开辟了新的道路,并表明TTT方法有可能超越OpenAI Scaling Law限制,以解决更复杂和抽象的任务。

原创文章,作者:睿鸿在线,如若转载,请注明出处:https://mip.orihonor.com/2024/11/13/7573.shtml

Like (0)
睿鸿在线睿鸿在线
Previous 2024年11月13日 下午6:35
Next 2024年11月13日 下午6:54

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注