成本也降低了,且无需微调
DeepMind的Mind Evolution:升级LLM推理能力的进化算法
DeepMind最新研究提出了一种名为“Mind Evolution”的进化搜索策略,显著提升了大型语言模型(LLMs)在规划和推理任务中的性能。该方法结合了遗传算法和LLMs的自然语言能力,无需微调即可实现显著效果,引发了Reddit和𝕏平台的广泛讨论。
1. Mind Evolution的核心思想
Mind Evolution旨在优化LLMs的推理时扩展(Inference-time scaling)。它借鉴了先前研究中自一致性、基于反馈的顺序修正以及由评估器引导的搜索等方法,并在此基础上引入了进化搜索的思想。通过迭代生成、评估和改进解决方案,Mind Evolution能够在规划和推理任务中找到更优的答案。
2. 工作机制:遗传算法与LLM的结合
Mind Evolution主要由两个组件构成:搜索算法和遗传算法。搜索算法帮助LLM找到最佳推理路径,而遗传算法则通过迭代优化候选解决方案,模拟生物进化过程中的选择、交叉和变异,最终得到更优的解。其流程包括:样本解决方案生成、评估、改进(选择、交叉、变异)和终止条件。
值得注意的是,Mind Evolution巧妙地利用“适应度函数”解决了传统方法中需要将问题形式化的问题。适应度函数直接处理自然语言问题,并提供文本反馈,从而简化了流程,降低了对领域专业知识的需求。
3. 实验结果:显著优于基线方法
实验结果显示,Mind Evolution在旅行规划和会议规划等任务中显著优于其他基线方法,例如1-pass、Best-of-N和Sequential Revisions+。尤其是在任务复杂度增加时,Mind Evolution的优势更加明显。例如,在Gemini 1.5 Flash模型上,Mind Evolution将旅行规划任务的成功率从5.6%提升至95.6%,会议规划任务的成功率从20.8%提升至85.0%。同时,它还比Sequential Revisions+消耗更少的tokens。
此外,Mind Evolution还在一项新的创意写作任务(StegPoet)中取得了成功,证明其在更复杂、更具创造性的自然语言规划任务中的适用性。
4. 总结:高效且经济的LLM推理升级
Mind Evolution通过结合广泛搜索和深度搜索,有效提升了LLMs在规划和推理方面的能力。它无需对模型进行微调,且成本更低,为提升LLM的推理能力提供了一种高效且经济的方法。这项研究被网友誉为“给大语言模型升级大脑而不刷爆信用卡”。
联系作者
文章来源:量子位
作者微信:
作者简介:追踪人工智能新趋势,关注科技行业新突破