UIUC 李博:如何探索大模型背后的安全隐忧?丨ICML 2024 直击

UIUC 李博:如何探索大模型背后的安全隐忧?丨ICML 2024 直击

AIGC动态欢迎阅读

原标题:UIUC 李博:如何探索大模型背后的安全隐忧?丨ICML 2024 直击
关键字:模型,政策,科技,问题,公司
文章来源:AI科技评论
内容字数:0字

内容摘要:


纯靠 Transformer 的架构或数据驱动模型,解决不了推理问题。作者丨马蕊蕾
编辑丨陈彩娴
大模型的安全研究,没有赶上 AI 的发展速度。
7 月微软蓝屏事件,像是新老交替之际的一记警钟。每一项新技术的发明,都伴随着一种新责任的出现。假使 AI 集成到每个应用,那么发生在微软的蓝屏事件,同样也会成为 AI 潜在的危险。
“大模型能力的提升并不能代表它的安全也能得到改进,大家还是要有意识的发现模型潜在的风险和漏洞。” ICML 2024 大会期间,AI 科技评论访谈 ICML Tutorial Chair 李博时,她如是说道。
李博现任伊利诺伊大学香槟分校(UIUC)和芝加哥大学教授,目前处于学术休假期间在工业界访问。她重点研究机器学习、计算机安全、隐私和博弈论,大部分工作都在探索机器学习系统对各种对抗性攻击的漏洞,并致力于开发现实世界的可信机器学习系统。
她曾荣获 IJCAI 2022 计算机与思想奖、麻省理工学院技术评论 MIT TR-35 、Alfred P. Sloan 斯隆研究奖、NSF CAREER 奖、AI’s 10 to Watch、C.W. Gear Outsta


原文链接:UIUC 李博:如何探索大模型背后的安全隐忧?丨ICML 2024 直击

联系作者

文章来源:AI科技评论
作者微信:
作者简介:

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...