标签:偏差

AI数据训AI,引发模型大崩溃!牛津剑桥最新研究,登上Nature发警告

夕小瑶科技说 原创作者 | 谷雨龙泽我们都知道,AI大模型是需要现成的数据来训练,只有喂给AI大量的数据,AI才能“学富五车”。为此,不少AI模型在研发的时候,...
阅读原文

Meta新研究挑战CV领域基操:ViT根本不用patch,用像素做token效果更佳

新智元报道编辑:乔杨 【新智元导读】下一代视觉模型会摒弃patch吗?Meta AI最近发表的一篇论文就质疑了视觉模型中局部关系的必要性。他们提出了PiT架构,让T...
阅读原文

今日arXiv最热大模型论文:清华大学:一个简单缩放让大模型利用长上下文能力提升15.2%

夕小瑶科技说 原创作者 | 谢年年 不知道大家发现没有,一些大模型的提示技巧总是习惯将一些重要指令或信息放在提示的开头或者结尾。 这是因为LLMs在处理上下...
阅读原文

Flash Attention稳定吗?Meta、哈佛发现其模型权重偏差呈现数量级波动

机器之心报道 机器之心编辑部Meta FAIR 联合哈佛优化大规模机器学习时产生的数据偏差,提供了新的研究框架。众所周知,大语言模型的训练常常需要数月的时间,...
阅读原文

今日arXiv最热大模型论文:何恺明重提十年之争——模型表现好是源于能力提升还是捕获数据集偏见

夕小瑶科技说 原创作者 | 松果2011年,知名学者Antonio Torralba和Alyosha Efros提出了“数据集偏差之战”,他们发现机器学习模型很容易“过拟合”到特定的数据集...
阅读原文

何恺明刘壮新作:消除数据集偏差的十年之战

编辑部 发自 凹非寺量子位 | 公众号 QbitAIMIT新晋副教授何恺明,新作新鲜出炉: 瞄准一个横亘在AI发展之路上十年之久的问题:数据集偏差。 该研究为何恺明在...
阅读原文