标签:概率

AI训AI惨遭投毒9次大崩溃,牛津剑桥等惊天发现登Nature封面!

新智元报道编辑:编辑部 【新智元导读】9次迭代后,模型开始出现诡异乱码,直接原地崩溃!就在今天,牛津、剑桥等机构的一篇论文登上了Nature封面,称合成数...
阅读原文

Llama 3.1上线就被攻破:大骂小扎,危险配方张口就来!指令遵循能力强了更容易越狱

梦晨 发自 凹非寺量子位 | 公众号 QbitAI最强大模型Llama 3.1,上线就被攻破了。 对着自己的老板扎克伯格破口大骂,甚至知道如何绕过屏蔽词。 设计危险病毒、...
阅读原文

一位物理学家的概率观

来源:赛先生、《概率论沉思录》 作者:廖海仁 导读:他是圣路易斯华盛顿大学和斯坦福大学教授,他的博士论文导师是著名物理学家、1963 年诺贝尔物理学奖得主...
阅读原文

生成式模型不只会「模仿」!哈佛、UCSB等最新成果:性能可超越训练集专家水平

新智元报道编辑:LRS 【新智元导读】生成式模型原本被设计来模仿人类的各种复杂行为,但人们普遍认为它们最多只能达到与其训练数据中的专家相当的水平。不过...
阅读原文

零成本突破多模态大模型瓶颈!多所美国顶尖高校华人团队,联合推出自增强技术CSR

新智元报道编辑:LRST 【新智元导读】现有多模态大模型在对齐不同模态时面临幻觉和细粒度感知不足等问题,传统偏好学习方法依赖可能不适配的外源数据,存在成...
阅读原文

To Believe or Not to Believe?DeepMind新研究一眼看穿LLM幻觉

新智元报道编辑:庸庸 乔杨 【新智元导读】DeepMind发表了一篇名为「To Believe or Not to Believe Your LLM」的新论文,探讨了LLM的不确定性量化问题,通过...
阅读原文

长文 | 大模型偏好对齐全家桶 – RL侧

今天给大家带来一篇Reinforcement Learning from Human Feedback的全家桶,来自知乎@何枝(已授权)。 随着 Llama3 的开源,人们对 Alignment 的重视程度又上...
阅读原文

今日arXiv最热NLP大模型论文:清华大学提出IFT对齐算法,打破SFT与RLHF局限性

夕小瑶科技说 原创作者 | 谢年年 监督微调(Supervised Fine-Tuning, SFT)和基于人类反馈的强化学习(Reinforcement Learning from Human Feedback, RLHF)...
阅读原文

陈丹琦团队新作:微调8B模型超越Claude3 Opus,背后是RLHF新平替

克雷西 发自 凹非寺量子位 | 公众号 QbitAI比斯坦福DPO(直接偏好优化)更简单的RLHF平替来了,来自陈丹琦团队。 该方式在多项测试中性能都远超DPO,还能让8B...
阅读原文

热帖:大语言模型自荐能够替代的20种人类工作!快来看你是否需要转行!

夕小瑶科技说 原创作者 | 付奶茶最近推特上有一个例子引起了广泛的讨论,事情的起因是这样的:网友让 GPT-4o 预测一下自己未来将会替代人类哪些工作? 这听起...
阅读原文

以ACL 2024为例,从投稿到接收:顶会投稿后全流程揭秘

夕小瑶科技说 分享作者 | Erutan Lai来源 | 知乎想必很多同学都会感到好奇,论文投稿之后会经历什么? 写这篇文章,就我所知的,简单科普一下。毕竟没当过大C...
阅读原文

AI足球教练上岗利物浦,射门机会提高13%!来自DeepMind,网友:这不公平

梦晨 发自 凹非寺量子位 | 公众号 QbitAIAI足球教练登上Nature子刊,谷歌DeepMind与利物浦队合作三年打造: 如同AlphaGo颠覆围棋一样,改变了球队制定战术的...
阅读原文

ICLR 2024 | 无需训练,Fast-DetectGPT让文本检测速度提升340倍

机器之心专栏 机器之心编辑部Fast-DetectGPT同时做到了高准确率、高速度、低成本、通用,扫清了实际应用的障碍!大语言模型如 ChatGPT 和 GPT-4 在各个领域对...
阅读原文

长文综述:大脑中的熵、能、对称性和动力学|新春特辑

导语我们的大脑在一定程度上是贝叶斯推理系统,生成内部模型对外部世界作出预测,然后将预测与感官输入不断地进行对比,形成预测误差并更新内部模型。2022年...
阅读原文

根据模型输出反转LLM输入提示,让恶意攻击无处可藏

大数据文摘授权转载自将门创投 作者:seven_ 近一段时间以来,工业界和学术界都对大型语言模型(LLM)的内部运行机理进行了深入的研究和探索。这种基础理论研...
阅读原文
123