谷歌内部项目:大模型AI智能体发现了代码漏洞

谷歌内部项目:大模型AI智能体发现了代码漏洞

AIGC动态欢迎阅读

原标题:谷歌内部项目:大模型AI智能体发现了代码漏洞
关键字:漏洞,智能,团队,软件,断言
文章来源:机器之心
内容字数:0字

内容摘要:


机器之心报道
机器之心编辑部开源数据库引擎 SQLite 有 bug,还是智能体检测出来的!
通常,软件开发团队会在软件发布之前发现软件中的漏洞,让攻击者没有破坏的余地。模糊测试 (Fuzzing)是一种常见的软件测试方法,其核心思想是将自动或半自动生成的随机数据输入到一个程序中,并监视程序异常。
尽管模糊测试大有帮助,但有些漏洞难以甚至不可能通过模糊测试发现。
谷歌内部有一个名为 Project Zero 的软件安全研究团队,他们发现随着大型语言模型 (LLM) 的代码理解和一般推理能力的提高,LLM 将能够在识别和展示安全漏洞时重现人类安全研究人员的系统方法,最终弥补当前自动漏洞发现方法的一些盲点。
Project Zero 在 6 月介绍了 LLM 辅助漏洞研究框架 ——Naptime 架构,之后 Naptime 演变成了 Big Sleep 智能体,由 Google Project Zero 和 Google DeepMind 合作完成。Naptime 架构
研究团队认为:与开放式漏洞研究相比,变体分析任务更适合当前的 LLM。通过提供一个起点(例如之前修复的漏洞的详细信息),


原文链接:谷歌内部项目:大模型AI智能体发现了代码漏洞

联系作者

文章来源:机器之心
作者微信:
作者简介:

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...