OpenAI官宣全新安全团队:模型危险分四级,董事会有权决定是否发布

AIGC动态11个月前发布 新智元
13 0 0

OpenAI官宣全新安全团队:模型危险分四级,董事会有权决定是否发布

AIGC动态欢迎阅读

原标题:OpenAI官宣全新安全团队:模型危险分四级,董事会有权决定是否发布
关键字:政策,报告,模型,风险,框架
文章来源:新智元
内容字数:6571字

内容摘要:


新智元报道编辑:alan Aeneas
【新智元导读】今天,OpenAI隆重推出了自己的「准备」安全团队,将模型危险等级分为四等,并且董事会有权决定是否发布。今天,OpenAI连发多条推特,隆重宣布了自己的「准备框架」(Preparedness Framework)。
在经历了各种大大小小的风波之后,OpenAI终于把人工智能的安全问题摆到了台面上。
这套框架的目的,就是监控和管理越来越强的大模型。
防止哪天我们一不留神进入了「黑客帝国」。
我们正在通过准备框架系统化自己的安全思维,这是一份动态文件(目前处于测试阶段),详细说明了我们正在采用的技术和运营投资,以指导前沿模型开发的安全性。
准备团队将推动技术工作,突破尖端模型的极限,不断跟踪模型风险。
新的安全基线和治理流程;跨职能的安全咨询小组
规定模型能够被部署或者开发的条件;增加与模型风险相称的安全保护。
众所周知,之前Altman被董事会炒掉的一个导火索,就是大模型的安全问题。
在必要的时候,公司发展中的这个隐患必须得到解决。
从技术和治理的角度来说,面对当前的人工智能,人类确实要尽早考虑未来发展中的风险。
OpenAI的核心


原文链接:OpenAI官宣全新安全团队:模型危险分四级,董事会有权决定是否发布

联系作者

文章来源:新智元
作者微信:AI_era
作者简介:智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人革命对人类社会与文明进化的影响,领航中国新智能时代。

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...