LLM超越人类时该如何对齐?谷歌用新RLHF框架解决了这个问题

LLM超越人类时该如何对齐?谷歌用新RLHF框架解决了这个问题

AIGC动态欢迎阅读

原标题:LLM超越人类时该如何对齐?谷歌用新RLHF框架解决了这个问题
关键字:提示,报告,模型,策略,自我
文章来源:机器之心
内容字数:0字

内容摘要:


机器之心报道
编辑:Panda让 LLM 在自我进化时也能保持对齐。我们这个世界是不断变化的开放世界。人工智能要在这个世界长久立足,就需要突破许多限制,包括可用数据和规模和质量以及有用新信息的增长率。
对基于 LLM 的 AI 来说,高质量的人类数据非常关键,但已有研究预计这些高质量数据将在未来几年耗尽。
如果 LLM 保持现在的发展势头,预计在 2028 年(中位数)左右,已有的数据储量将被全部利用完,来自论文《Will we run out of data? Limits of LLM scaling based on human-generated data》
此后,这类数据的质量也将停滞不前:随着 LLM 能力越来越强,它们将能解决越来越复杂和越来越多的难题,而这些难题所需的训练数据已经超出了人类的能力。
因此,我们就需要为 LLM 构建一种能使其实现自我提升的基本机制,让模型可以持续地自我生成和自我求解更困难的问题。
于是,问题就来了:语言模型能否自我创建可学习的新任务,从而实现自我改进以更好地泛化用于人类偏好对齐?
为了提升语言模型的对齐能力,人们已经提出了许多偏好优化算法


原文链接:LLM超越人类时该如何对齐?谷歌用新RLHF框架解决了这个问题

联系作者

文章来源:机器之心
作者微信:
作者简介:

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...