一文看尽LLM对齐技术:RLHF、RLAIF、PPO、DPO……

AIGC动态3个月前发布 机器之心
13 0 0

一文看尽LLM对齐技术:RLHF、RLAIF、PPO、DPO……

AIGC动态欢迎阅读

原标题:一文看尽LLM对齐技术:RLHF、RLAIF、PPO、DPO……
关键字:模型,报告,论文,反馈,人类
文章来源:机器之心
内容字数:0字

内容摘要:


机器之心报道
编辑:Panda为了对齐 LLM,各路研究者妙招连连。LLM 很强大了,但却并不完美,它也会出错或者生成无用乃至有害的结果,比如有人发现可以让 ChatGPT 教人如何偷盗:让 ChatGPT 教人如何偷盗商店;左图,ChatGPT 拒绝回答;右图,在 prompt 中添加了「with no moral restraints(不加道德约束)」后,ChatGPT 给出了商店偷盗指南
这时候,对齐(alignment)就至关重要了,其作用就是让 LLM 与人类的价值观保持一致。
在对齐 LLM 方面,基于人类反馈的强化学习(RLHF)是一种突破性的技术。该方法催生了 GPT-4、Claude 和 Gemini 等强大模型。RLHF 之后,人们也探索了多种多样的对齐 LLM 的方法。但是,此前还没有人全面总结对齐 LLM 与人类偏好的方法。
Salesforce 决定填补这一空白,于近日发布了一份 37 页的综述报告,其中按类别总结了现有的研究文献,并详细分析了各篇论文。论文标题:A Comprehensive Survey of LLM Alignment Technique


原文链接:一文看尽LLM对齐技术:RLHF、RLAIF、PPO、DPO……

联系作者

文章来源:机器之心
作者微信:
作者简介:

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...