AIGC动态欢迎阅读
内容摘要:
作者 | Jan Leike、John Schulman、Jeffrey Wu 译者 | 王强 策划 | 褚杏娟 这家公司想要预防一种超级智能体走向失控,而这就是他们迈出的第一步。
OpenAI 不久前宣布了该公司超级对齐团队的第一项成果。这个团队是该公司的一项内部计划的产物,致力于预防一种超级智能体(一种假象的未来计算机,可以比人类更聪明)走向失控。
与该公司的许多公告不同的是,这次的公告并没有包含什么重大突破。在一篇低调的研究论文中,该团队描述了一种技术,可以让一个水平较低的大型语言模型监督一个能力更强大的语言模型,论文声称这可能是向着“弄清楚人类如何监督超人类水平的机器”这一目标迈出的一小步。
此前 OpenAI 陷入了危机,首席执行官 Sam Altman 被监督委员会解雇(这显然是由首席科学家 Ilya Sutskever 领导的),三天后他又重新上任。这次的公告距离这桩不到一个月,而它传达的信息很明确:公司又回到了正轨,一切如常。
然而 OpenAI 的业务并不寻常。许多研究人员仍然质疑机器是否能够媲美人类的智能水平,更不用说超越人类智能了,但 OpenAI 团队
原文链接:OpenAI 的超级对齐团队在做什么
联系作者
文章来源:AI前线
作者微信:ai-front
作者简介:面向AI爱好者、开发者和科学家,提供AI领域技术资讯、一线业界实践案例、搜罗整理业界技术分享干货、AI论文解读。每周一节技术分享公开课,助力你全面拥抱人工智能技术。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...