标签:样本

「think step by step」还不够,让模型「think more steps」更有用

机器之心报道 机器之心编辑部本文对思维链的推理步长进行了控制变量实验,发现推理步长和答案的准确性是线性相关的,这种影响机制甚至超越了问题本身所产生的...
阅读原文

小模型增强可超GPT-4?北航 && 人大 | 提出大模型ICL增强范式,模型越小收益越高!

引言:上下文学习(In-context Learning,ICL)技术是提高模型在自然语言处理任务上表现的高效提示技术,因而众多研究在这个方向上提出各种方法,但大多数都...
阅读原文

ICLR 2024 Oral | 三行代码,即插即用!NUS尤洋团队新作—InfoBatch,无损数据集动态剪枝加速

大数据文摘受权转载自将门创投 本文介绍来自NUS尤洋团队的最新科研成果 - InfoBatch。这是首篇关于无损数据剪枝加速的工作,覆盖分类、分割、检测、图片生成...
阅读原文

三行代码无损加速40%,尤洋团队AI训练加速器入选ICLR Oral论文

克雷西 发自 凹非寺量子位 | 公众号 QbitAI用剪枝的方式加速AI训练,也能实现无损操作了,只要三行代码就能完成! 今年的深度学习顶会ICLR上,新加坡国立大学...
阅读原文

今日最佳NLP论文推荐:颠覆性Prompt-tuning新法

夕小瑶科技说 原创作者 | 赛博马良本文内容由 赛博马良「AI论文解读达人」 智能体生成,人工整理排版。 「AI论文解读达人」 可提供最热AI论文推荐、论文解读...
阅读原文

能找神经网络Bug的可视化工具,Nature子刊收录

机器之心报道 编辑:娄佳琪、大盘鸡近来,《自然》子刊收录了一项能找出神经网络在哪里出错的研究成果。研究团队提供了一种利用拓扑学描述神经网络的推断结果...
阅读原文

一条磁力链爆全网,Mixtral 8x7B论文来了!碾压Llama 2 70B,每token仅需激活13B参数

新智元报道编辑:桃子 好困 【新智元导读】爆火社区的Mixtral 8x7B模型,今天终于放出了arXiv论文!所有模型细节全部公开了。还记得一个月前,Mistral AI突然...
阅读原文

告别逐一标注,一个提示实现批量图片分割,高效又准确

机器之心专栏 机器之心编辑部仅需一个任务描述,即可一键分割所有图片! Segment Anything Model (SAM) 的提出在图像分割领域引起了巨大的关注,其卓越的泛化...
阅读原文

如果我搬出RLHF+GAN这个设定,你如何应对

前阵子腾讯AI Lab悄悄挂出了一篇文章:Adversarial Preference Optimization (APO)[1],看到设定我就惊呆了:RLHF+GAN,难道还嫌RLHF本身不够难训吗?但读下...
阅读原文

GPT-4变笨!回答新问题性能太差,想保持水准只能不断训练新模型

新智元报道编辑:润 【新智元导读】最近由UCSC的研究人员发表论文,证明大模型的零样本或者少样本能力,几乎都是来源于对于训练数据的记忆。昨天,一篇系统性...
阅读原文

这是GPT-4变笨的新解释

机器之心报道 编辑:蛋酱变笨的本质是知识没进脑子。 自发布以来,曾被认为是世界上最强大的 GPT-4 也经历了多场「信任危机」。 如果说今年早些时候那次「间...
阅读原文

ChatGPT变笨新解释:世界被AI改变,与训练时不同了

梦晨 发自 凹非寺量子位 | 公众号 QbitAI对于ChatGPT变笨原因,学术界又有了一种新解释。 加州大学圣克鲁兹分校一项研究指出: 在训练数据截止之前的任务上,...
阅读原文

全球最强「开源版Gemini」诞生!全能多模态模型Emu2登热榜,多项任务刷新SOTA

新智元报道编辑:桃子 好困 【新智元导读】最强的全能多模态模型来了!就在近日,智源研究院重磅发布了开源界的「Gemini」——Emu2,一口气刷新多项SOTA。过去...
阅读原文

一秒100张实时生成二次元老婆照!高吞吐低延迟低功耗|登顶GitHub热榜、已开源

西风 发自 凹非寺量子位 | 公众号 QbitAI单RTX4090,每秒生成100张图! 一种专为实时交互式图像生成而设计的一站式解决方案,登顶GitHub热榜。 方案名为Strea...
阅读原文

PaLM 2数学性能暴涨6%!DeepMind新作力证「合成数据」是通往AGI关键

新智元报道编辑:桃子【新智元导读】AI可以从自己生成的「合成数据」中学习,最重要的是,能够大幅提升数据问题解决和代码生成的能力。合成数据,或许就是大...
阅读原文
134567