标签:安全性

AI赚钱副业~AI生成影视解说,半个月涨粉变现3.5W+!

这两年大家都在感叹生活不易,然而我想说的是,机会还是有的,但问题不在于有没有,而在于你是否能够认准机会,然后抓住它。 接触过很多咨询项目的人,发现...

面向代码语言模型的安全性研究全新进展,南大&NTU联合发布全面综述

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术...
阅读原文

从特斯拉发布Robotaxi看全球无人驾驶发展趋势

在全球汽车产业的变革浪潮中,无人驾驶技术正成为最为瞩目的焦点之一。从特斯拉近日发布的Robotaxi Cybercab,到百度旗下萝卜快跑的持续推进,全球的自动驾驶...
阅读原文

OpenAI及Anthropic确认:AI模型发布前提交美国政府进行安全评估

点击上方蓝字关注我们“OpenAI和Anthropic与美国国家标准技术研究所(NIST)的AI安全研究所签订合作协议,致力于AI模型安全性研究,标志着AI领域安全规范的重...
阅读原文

关于大模型「越狱」的多种方式,有这些防御手段

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术...
阅读原文

出走 36 天后,OpenAI 灵魂人物 Ilya 官宣新公司,剑指安全超级智能!

出走36天后,Ilya终于官宣了自己的下一步动向:创建新公司,剑指安全超级智能! 是的,从名字就可以看出,这个新公司SSI的核心,就是Safe SuperIntelligence...
阅读原文

跨越AGI,Ilya官宣创业!我要的是「核安全」,SSI剑指安全超级智能

新智元报道编辑:编辑部 【新智元导读】炸裂!OpenAI真正的灵魂人物Ilya,刚刚官宣了自己出走OpenAI后要创建的新公司——SSI,也即安全超级智能。好家伙,这是...
阅读原文

AI安全之问:我们的智能助手真的安全吗?

夕小瑶科技说 原创作者 |韩旭东在我们日益依赖人工智能来撰写文档、编写程序代码、甚至创作艺术作品的今天,我们是否曾经想过这些智能系统可能面临的被恶意操...
阅读原文

复旦发布ToolSword框架,揭露大模型工具学习中的安全风险

夕小瑶科技说 原创作者 | 芒果、Python引言:工具学习在实际部署大型语言模型中的重要性在当今的人工智能领域,大语言模型(LLMs)的实际部署已成为一个热门...
阅读原文

Andrej Karpathy发布大型语言模型概述(视频含中英文字幕)

点击上方蓝字关注我们“ 在大型语言模型(LLMs)领域的前沿,Andrej Karpathy博士无疑是一位杰出的领军人物。他于近日在YouTube发布了题为大型语言模型概述的...
阅读原文

0.2美元微调就能让ChatGPT彻底破防!普林斯顿、斯坦福发布LLM风险预警:普通用户微调也影响LLM安全性

新智元报道编辑:LRS【新智元导读】微调LLM需谨慎,用良性数据、微调后角色扮演等都会破坏LLM对齐性能!学习调大了还会继续提高风险!虽说预训练语言模型可以...
阅读原文