联合研究揭示大模型“先推后答”可唤醒沉睡知识 但误触错误线索或放大偏差

在人工智能领域,大模型如何提取并调用自身知识一直是研究重点。传统看法认为,推理主要用于解决复杂问题,而像“埃菲尔铁塔建于哪一年”这类简单事实题,模型应当直接“回忆”答案。但谷歌研究院等机构的最新研究对此观点提出了挑战。研究团队测试了多款先进大模型,并采用“混合模型”设置,使模型可在开启与关闭推理模式之间切换。结果显示,即便面对单步事实问题,开启推理模式也能大幅提升回答准确率。例如在SimpleQA-Verified数据集中,能力较弱的模型准确率几乎翻倍,能力更强的模型也有明显提升。继续分析发现,推理之所以能改善知识提取,主要有两点原因:其一,推理为模型提供了更多计算时间,使信息处理更充分;其二,推理过程会触发联想,激活与问题对应的的事实线索,从而更容易得到正确答案。同时,研究也提示了风险:如果推理过程中引入了错误信息,最终答案出错的概率会显著上升。针对这一现象,研究团队提出了优化思路,建议在实际应用中更合理地设计推理流程,以尽量放大收益并降低错误传播的影响。未来,这一发现可能为人工智能系统的知识管理、错误修正和效率优化提供参考。

这项研究表明,看似直接的知识提取并不一定是“从记忆中取出答案”那么简单,适当的推理过程反而可能带来更好的结果;此结论有助于我们更准确地理解大模型在回答问题时的内部机制,也为改进现有系统提供了依据。随着有关研究深入,未来有望构建更智能、更可靠的人工智能系统,使其在知识密集型任务中具备更强表现。同时,这也提醒我们,只有把机制层面的研究与落地应用结合起来,才能更有效地推动技术持续进步。