标签:攻击者

AI赚钱副业~AI生成影视解说,半个月涨粉变现3.5W+!

这两年大家都在感叹生活不易,然而我想说的是,机会还是有的,但问题不在于有没有,而在于你是否能够认准机会,然后抓住它。 接触过很多咨询项目的人,发现...

面向代码语言模型的安全性研究全新进展,南大&NTU联合发布全面综述

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术...
阅读原文

什么会影响大模型安全?NeurIPS'24新研究提出大模型越狱攻击新基准与评估体系

USAIL团队 投稿量子位 | 公众号 QbitAI全新大语言模型越狱攻击基准与评估体系来了。 来自香港科技大学(Guangzhou)USAIL研究团队,从攻击者和防御者的角度探...
阅读原文

大模型训练遭投毒损失千万美元?Anthropic惊人发现:LLM植入,代码库暗藏bug!

新智元报道编辑:Aeneas 好困 【新智元导读】最近,大模型训练遭恶意攻击事件已经刷屏了。就在刚刚,Anthropic也发布了一篇论文,探讨了前沿模型的巨大破坏力...
阅读原文

OpenAI被币圈黑客盗号,15个月内第四起,网友:还敢相信他们的AI安全吗?

西风 发自 凹非寺量子位 | 公众号 QbitAI就离谱,OpenAI𝕏官号一夜间被挖币的给黑了! 就是刚开设专门发新闻的那个OpenAI Newsroom账号。 深更半夜突然发了这...
阅读原文

只需两步,让大模型智能体社区相信你是秦始皇

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术...
阅读原文

【综述专栏】大型视觉语言模型攻击综述:资源、进展与未来趋势!

来源:人工智能前沿讲习 在科学研究中,从方法论上来讲,都应“先见森林,再见树木”。当前,人工智能学术研究方兴未艾,技术迅猛发展,可谓万木争荣,日新月异...
阅读原文

AI安全之问:我们的智能助手真的安全吗?

夕小瑶科技说 原创作者 |韩旭东在我们日益依赖人工智能来撰写文档、编写程序代码、甚至创作艺术作品的今天,我们是否曾经想过这些智能系统可能面临的被恶意操...
阅读原文

XZ恶意代码潜伏三年,差点引发核末日?投毒黑客身份成谜

新智元报道编辑:好困 Aeneas 【新智元导读】这个周末,开源软件xz后门事件,直接引发了安全界地震!一段恶意代码被悄悄植入了,险些波及各大Linux系统。好在...
阅读原文

苹果M芯片漏洞:泄露密钥信息且不可修复

点击上方蓝字关注我们“学术研究人员发现苹果M系列芯片存在安全漏洞,该漏洞使得攻击者能在执行加密操作时提取Mac中的秘密密钥。这一问题源自芯片的微架构设计...
阅读原文

一条隐形短信让iPhone变“终极监控工具”,附近设备信息都能获取!苹果惊人漏洞历时4年才被发现

丰色 发自 凹非寺量子位 | 公众号 QbitAI苹果重大漏洞让数千部iPhone变“终极监控工具”—— 而且居然过了四年才被发现? 最近,知名安全公司卡巴斯基曝光: 恶意...
阅读原文

历时4年,iPhone遭史上最复杂攻击!一条iMessage窃走所有隐私数据,Karpathy惊呼

新智元报道编辑:润 好困 【新智元导读】iPhone曝出「史上最复杂」硬件级别漏洞!黑客只需一条iMessage即可拿到所有敏感数据,而用户不会有任何察觉。整个漏...
阅读原文

谷歌Bard「破防」,用自然语言,提示注入引起数据泄漏风险

机器之心报道编辑:佳琪操控 Bard 的秘密:运用一种叫提示注入(Prompt Injection)的技术,黑客可以只使用自然语言破解人工智能系统。大型语言模型在生成文...
阅读原文

为防大模型作恶,斯坦福新方法让模型「遗忘」有害任务信息,模型学会「自毁」了

西风 发自 凹非寺量子位 | 公众号 QbitAI防止大模型作恶的新法子来了!这下即使模型开源了,想恶意使用模型的人也很难让大模型“作恶”。不信就来看这项研究。...
阅读原文