AIGC动态欢迎阅读
原标题:OpenAI超级对齐团队遗作:两个大模型博弈一番,输出更好懂了
关键字:模型,答案,可读性,团队,人类
文章来源:机器之心
内容字数:0字
内容摘要:
机器之心报道
机器之心编辑部如果 AI 模型给的答案一点也看不懂,你敢用吗?随着机器学习系统在更重要的领域得到应用,证明为什么我们可以信任它们的输出,并明确何时不应信任它们,变得越来越重要。
获得对复杂系统输出结果信任的一个可行方法是,要求系统对其输出产生一种解释,这种解释对人类或另一个受信任的系统来说是可读的,即可以完全理解以至于任何可能的错误都可以被发现。例如,为了建立对司法系统的信任,我们要求法院提供清晰易读的书面意见,解释并支持其决策。
对于大型语言模型来说,我们也可以采用类似的方法。
不过,在采用这种方法时,确保语言模型生成的是易于理解的文本,这件事非常重要,尤其是在处理数学、编码这样的复杂任务时。
如下图所示,你让 AI 写一个快速排序算法,AI 很快就写出来了,而且答案很简洁。但不会写代码的你要怎么判断 AI 写得对不对呢?OpenAI 在一篇最新的论文中研究了这个问题。论文标题:PROVER-VERIFIER GAMES IMPROVE LEGIBILITY OF LLM OUTPUTS
论文链接:https://cdn.openai.com/prover-verifi
原文链接:OpenAI超级对齐团队遗作:两个大模型博弈一番,输出更好懂了
联系作者
文章来源:机器之心
作者微信:
作者简介:
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...