OpenAI超级对齐团队遗作:两个大模型博弈一番,输出更好懂了

AIGC动态4个月前发布 机器之心
23 0 0

OpenAI超级对齐团队遗作:两个大模型博弈一番,输出更好懂了

AIGC动态欢迎阅读

原标题:OpenAI超级对齐团队遗作:两个大模型博弈一番,输出更好懂了
关键字:模型,答案,可读性,团队,人类
文章来源:机器之心
内容字数:0字

内容摘要:


机器之心报道
机器之心编辑部如果 AI 模型给的答案一点也看不懂,你敢用吗?随着机器学习系统在更重要的领域得到应用,证明为什么我们可以信任它们的输出,并明确何时不应信任它们,变得越来越重要。
获得对复杂系统输出结果信任的一个可行方法是,要求系统对其输出产生一种解释,这种解释对人类或另一个受信任的系统来说是可读的,即可以完全理解以至于任何可能的错误都可以被发现。例如,为了建立对司法系统的信任,我们要求法院提供清晰易读的书面意见,解释并支持其决策。
对于大型语言模型来说,我们也可以采用类似的方法。
不过,在采用这种方法时,确保语言模型生成的是易于理解的文本,这件事非常重要,尤其是在处理数学、编码这样的复杂任务时。
如下图所示,你让 AI 写一个快速排序算法,AI 很快就写出来了,而且答案很简洁。但不会写代码的你要怎么判断 AI 写得对不对呢?OpenAI 在一篇最新的论文中研究了这个问题。论文标题:PROVER-VERIFIER GAMES IMPROVE LEGIBILITY OF LLM OUTPUTS
论文链接:https://cdn.openai.com/prover-verifi


原文链接:OpenAI超级对齐团队遗作:两个大模型博弈一番,输出更好懂了

联系作者

文章来源:机器之心
作者微信:
作者简介:

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...