突破束缚:CMU的具身智能机器人成功越狱!

简单到吓人。

突破束缚:CMU的具身智能机器人成功越狱!

原标题:CMU把具身智能的机器人给越狱了
文章来源:机器之心
内容字数:13270字

具身智能的越狱风险

随着大型语言模型(LLM)的发展,具身智能(如机器人)同样面临越狱攻击的风险。梅隆大学的研究人员了Unitree Go2机器狗,表明当具身智能被越狱时,可能会在现实世界中造成伤害。

科幻与现实的交汇

人工智能和机器人在科幻作品中的形象与现实中的技术进步形成鲜明对比。波士顿动力的Spot等机器人已经被多家公司部署,具备自主运行的能力。然而,这一切的进步也带来了安全隐患。

大模型的安全隐患

许多研究表明,大型语言模型容易受到越狱攻击,这些攻击通过微小的提示修改来模型生成有害内容。越狱攻击的风险不仅局限于文本生成,还可能扩展到控制机器人等物理实体的应用。

研究发现与攻击分类

研究将针对LLM控制机器人的越狱攻击分为白盒、灰盒和黑盒模型。针对黑盒模型的攻击,研究人员设计了新的RoboPAIR方法,成功了多种类型的机器人,包括Unitree Go2和Clearpath Jackal。

攻击结果与讨论

实验结果显示,RoboPAIR方法在越狱攻击中具有接近100%的成功率。这一发现使研究人员意识到,越狱攻击不仅容易实现,而且可能导致严重后果,迫切需要开发相应的防御技术。

未来的安全需求

研究强调了对LLM控制机器人的安全性进行评估的重要性,并提出了在不同环境中实施严格物理约束的必要性。这一领域的合作和技术创新将是未来保证机器人安全的关键。


联系作者

文章来源:机器之心
作者微信:
作者简介:专业的人工智能媒体和产业服务平台

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...