突破幻想:杜克大学与谷歌联合推出SLED解码框架,提升大语言模型的事实准确性

与梯度下降等经典优化算法衔接更为紧密自然

突破幻想:杜克大学与谷歌联合推出SLED解码框架,提升大语言模型的事实准确性

原标题:NeurIPS 2024|杜克大学&谷歌提出SLED解码框架无需外部数据与额外训练,有效缓解大语言模型幻觉,提高事实准确性
文章来源:机器之心
内容字数:4361字

自驱动 Logits 进化解码(SLED)提升大语言模型的事实准确性

近年来,大语言模型(LLM)在多种任务中展现了卓越的性能,但幻觉(hallucination)现象导致其生成内容的准确性受到限制。为了解决这一问题,杜克大学与 Google Research 的研究团队提出了一种新的解码框架——自驱动 Logits 进化解码(SLED),旨在提升 LLM 的事实准确性。该方法不依赖外部知识库或额外微调,为模型的实际应用提供了更高的可靠性。

研究背景与思路

研究者指出,虽然用户可能无法得到 LLM 的正确答案,但模型内部存储的“潜在知识”可能包含正确的信息。该研究的重点在于如何挖掘这些潜在知识,并利用其增强模型输出的准确性。SLED 方法通过对比 LLM 不同层的输出,挖掘潜在知识,并通过一种“梯度下降”方式将其整合到原始输出中,从而有效提升事实准确性。

方法设计

SLED 方法通过优化损失函数 L 来提高输出中正确 token 的概率,实现 Logits 进化。研究者还发现,LLM 的训练实际上是一个由外部驱动的 Logits 进化过程,最后一层的输出通常更接近真实世界的分布。基于此,研究者通过反向估计潜在知识,最终实现更接近事实分布的输出。

实验验证

研究团队将 SLED 与当前最先进的方法 DoLa 进行了比较,涵盖多种 LLM 家族和不同规模的模型。实验结果显示,SLED 在多项任务中均显著提升了事实准确性,并且与其他解码方式兼容良好。更重要的是,SLED 在计算上几乎没有额外开销,且有效抑制了重复性问题,优化了输出质量。

未来展望

SLED 为后续推理时算法提供了新的框架,结合经典优化算法提高了效率。未来的研究方向可以探索将 SLED 与监督式微调结合,以适应特定领域的需求。此外,改进框架设计也是后续研究的重点。

通过引入 SLED 方法,本研究成功提升了 LLM 在多种任务中的事实准确性,为模型的实际应用提供了更可靠的支持。


联系作者

文章来源:机器之心
作者微信:
作者简介:专业的人工智能媒体和产业服务平台

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...