标签:概率

100个红绿球,让2万人集体翻车!数学家「罐中难题」引爆全网讨论

新智元报道编辑:编辑部 【新智元导读】这道100个红绿球的「罐中谜题」,两万多人中仅有20%能答对?这位数学家为我们揭示了,为何概率推理谜题如此反直觉的原...
阅读原文

10行代码让大模型数学提升20%,“野路子”研究谷歌也测上了,主要作者全靠自学成才

克雷西 发自 凹非寺量子位 | 公众号 QbitAI只要不到10行代码,就能让大模型数学能力(GSM8k)提升20%! 几名独立学者提出了大模型采样的改进方案,引起了开源...
阅读原文

大模型 VS 小模型

生成式AI时代最火AI芯片峰会下月来袭!9月6-7日,智猩猩发起主办的2024全球AI芯片峰会将在北京盛大举行。峰会设有开幕式、数据中心AI芯片专场、边缘/端侧AI芯...
阅读原文

“防御性”编程弱爆了,我选择“进攻性”编程

Hello,大家好,我是 JioNLP。 应该都听说过防御性编程吧? 程序员们为了防止被裁员,需要把程序写得乱糟糟的: 要么是层层抽象,每一层都特别难理解,搞得其...
阅读原文

率先测了一把阿里「世界最强」数学大模型后,我深吸一口气。。

夕小瑶科技说 原创作者 | 海野打开APP Store,各种搜题软件太多了! 拍搜赛道不止服务于K12学段的学生、老师、家长等广大的用户群体,大学生、考研、考公等任...
阅读原文

12个必须了解的AI模型评估指标

来源:海豚数智科学实验室 构建机器学习模型或深度学习模型的想法遵循建设性反馈原则。你构建一个模型,从指标中获取反馈,进行改进,并继续下去,直到达到理...
阅读原文

Nature封面:AI训AI,越训越傻

来源:量子位 | 公众号 QbitAI白交 发自 凹非寺AI训练AI,可能会让AI变傻?! 来自牛津、剑桥等学校机构的研究人员最新发现,使用合成数据训练,大模型可能会...
阅读原文

Nature 重磅论文:用 AI 生成的数据训练 AI,会让大模型崩溃

文章转载自「新智元」。我们知道,训练大模型需要大量的数据积累,随着技术的发展,高质量数据逐渐成为AI进步的强烈需求。 面对这样的情况下,为了提升模型能...
阅读原文

AI训AI惨遭投毒9次大崩溃,牛津剑桥等惊天发现登Nature封面!

新智元报道编辑:编辑部 【新智元导读】9次迭代后,模型开始出现诡异乱码,直接原地崩溃!就在今天,牛津、剑桥等机构的一篇论文登上了Nature封面,称合成数...
阅读原文

Llama 3.1上线就被攻破:大骂小扎,危险配方张口就来!指令遵循能力强了更容易越狱

梦晨 发自 凹非寺量子位 | 公众号 QbitAI最强大模型Llama 3.1,上线就被攻破了。 对着自己的老板扎克伯格破口大骂,甚至知道如何绕过屏蔽词。 设计危险病毒、...
阅读原文

一位物理学家的概率观

来源:赛先生、《概率论沉思录》 作者:廖海仁 导读:他是圣路易斯华盛顿大学和斯坦福大学教授,他的博士论文导师是著名物理学家、1963 年诺贝尔物理学奖得主...
阅读原文

生成式模型不只会「模仿」!哈佛、UCSB等最新成果:性能可超越训练集专家水平

新智元报道编辑:LRS 【新智元导读】生成式模型原本被设计来模仿人类的各种复杂行为,但人们普遍认为它们最多只能达到与其训练数据中的专家相当的水平。不过...
阅读原文

零成本突破多模态大模型瓶颈!多所美国顶尖高校华人团队,联合推出自增强技术CSR

新智元报道编辑:LRST 【新智元导读】现有多模态大模型在对齐不同模态时面临幻觉和细粒度感知不足等问题,传统偏好学习方法依赖可能不适配的外源数据,存在成...
阅读原文

To Believe or Not to Believe?DeepMind新研究一眼看穿LLM幻觉

新智元报道编辑:庸庸 乔杨 【新智元导读】DeepMind发表了一篇名为「To Believe or Not to Believe Your LLM」的新论文,探讨了LLM的不确定性量化问题,通过...
阅读原文

长文 | 大模型偏好对齐全家桶 – RL侧

今天给大家带来一篇Reinforcement Learning from Human Feedback的全家桶,来自知乎@何枝(已授权)。 随着 Llama3 的开源,人们对 Alignment 的重视程度又上...
阅读原文
12