OpenAI组建「集体对齐」新团队,确保AI模型与人类价值观保持一致!

OpenAI组建「集体对齐」新团队,确保AI模型与人类价值观保持一致!

AIGC动态欢迎阅读

原标题:OpenAI组建「集体对齐」新团队,确保AI模型与人类价值观保持一致!
关键字:政策,人工智能,团队,鸿沟,价值观
文章来源:夕小瑶科技说
内容字数:2940字

内容摘要:


夕小瑶科技说 原创作者 | 付奶茶OpenAI 最新宣布将成立一个“集体对齐”(Collective Alignment)的全新团队!
这个团队主要由研究人员和工程师组成,旨在专注于设计和实施收集公众意见的流程,以协助训练和调整AI模型的行为,从而解决潜在的偏见和其他问题。
众所周知,为了安全考虑,AI要想真正进入到人类社会,一定要做好价值观对齐。OpenAI 认为让公众参与进来非常重要,这是为了确保AI模型与人类价值观保持一致的关键举措。
十大民主人工智能项目早在 2023年5月,OpenAI 就宣布启动“民主人工智能”(Democratic Inputs to AI grant program)计划,并从近1000名申请者中挑选出了十大民主人工智能团队,授予这些团队总额达10万美元的资金用于设计、开发用来让公众治理人工智能的的工具。
比如前5个团队做的项目如下:
人工智能政策判例法: 创建一个全面的案例库支持人工智能的交互场景。鼓励专家和公众的参与,塑造复杂情况下的人工智能行为。
民主政策制定的集体对话: 制定反映知情公众意愿的政策,通过采用集体对话的方式来弥合人口鸿沟,确保政策的


原文链接:OpenAI组建「集体对齐」新团队,确保AI模型与人类价值观保持一致!

联系作者

文章来源:夕小瑶科技说
作者微信:xixiaoyaoQAQ
作者简介:更快的AI前沿,更深的行业洞见。聚集25万AI应用开发者、算法工程师和研究人员。一线作者均来自清北、国外顶级AI实验室和互联网大厂,兼备媒体sense与技术深度。

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...