标签:样本
如果我搬出RLHF+GAN这个设定,你如何应对
前阵子腾讯AI Lab悄悄挂出了一篇文章:Adversarial Preference Optimization (APO)[1],看到设定我就惊呆了:RLHF+GAN,难道还嫌RLHF本身不够难训吗?但读下...
GPT-4变笨!回答新问题性能太差,想保持水准只能不断训练新模型
新智元报道编辑:润 【新智元导读】最近由UCSC的研究人员发表论文,证明大模型的零样本或者少样本能力,几乎都是来源于对于训练数据的记忆。昨天,一篇系统性...
这是GPT-4变笨的新解释
机器之心报道 编辑:蛋酱变笨的本质是知识没进脑子。 自发布以来,曾被认为是世界上最强大的 GPT-4 也经历了多场「信任危机」。 如果说今年早些时候那次「间...
ChatGPT变笨新解释:世界被AI改变,与训练时不同了
梦晨 发自 凹非寺量子位 | 公众号 QbitAI对于ChatGPT变笨原因,学术界又有了一种新解释。 加州大学圣克鲁兹分校一项研究指出: 在训练数据截止之前的任务上,...
全球最强「开源版Gemini」诞生!全能多模态模型Emu2登热榜,多项任务刷新SOTA
新智元报道编辑:桃子 好困 【新智元导读】最强的全能多模态模型来了!就在近日,智源研究院重磅发布了开源界的「Gemini」——Emu2,一口气刷新多项SOTA。过去...
一秒100张实时生成二次元老婆照!高吞吐低延迟低功耗|登顶GitHub热榜、已开源
西风 发自 凹非寺量子位 | 公众号 QbitAI单RTX4090,每秒生成100张图! 一种专为实时交互式图像生成而设计的一站式解决方案,登顶GitHub热榜。 方案名为Strea...
PaLM 2数学性能暴涨6%!DeepMind新作力证「合成数据」是通往AGI关键
新智元报道编辑:桃子【新智元导读】AI可以从自己生成的「合成数据」中学习,最重要的是,能够大幅提升数据问题解决和代码生成的能力。合成数据,或许就是大...
用RLHF 2%的算力让LLM停止有害输出,字节提出LLM遗忘学习
机器之心专栏机器之心编辑部如何让LLM “忘记” 学到的有害内容?随着大型语言模型(LLM)的发展,从业者面临更多挑战。如何避免 LLM 产生有害回复?如何快速删...
微调都不要了?3个样本、1个提示搞定LLM对齐,提示工程师:全都回来了
机器之心报道机器之心编辑部大模型的效果好不好,有时候对齐调优很关键。但近来很多研究开始探索无微调的方法,艾伦人工智能研究所和华盛顿大学的研究者用「...
NeurIPS 2023 | 模仿人类举一反三,数据集扩增新范式GIF框架来了
机器之心专栏机器之心编辑部在这篇 NeurIPS 2023 论文中,来自新加坡国立大学和字节跳动的学者们受人类联想学习的启发,提出了数据集扩增的新范式,有效地提...
微软仅凭「提示工程」让GPT-4成医学专家!超过一众高度微调模型,专业测试准确率首次超90%
西风 发自 凹非寺量子位 | 公众号 QbitAI微软最新研究再次证明了提示工程的威力——无需额外微调,无需专家策划,仅凭提示,GPT-4就能化身“专家”。使用他们提出...
大模型没有自我改进能力?苏黎世理工联合Meta AI提出小模型架构,显著提升大模型表现
夕小瑶科技说 原创作者 | 谢年年、python前段时间,多位大佬发文指出大模型没有自我改进的能力,甚至自我改进之后,回答质量还会明显下降。自我改进之所以不...
材质界的ImageNet,大规模6维材质实拍数据库OpenSVBRDF发布|SIGGRAPH Asia
机器之心专栏机器之心编辑部在计算图形学领域,材质外观刻画了真实物体与光线之间的复杂物理交互,通常可表达为随空间位置变化的双向反射分布函数(Spatially...
小模型如何进行上下文学习?字节跳动 & 华东师大联合提出自进化文本识别器
机器之心专栏机器之心编辑部我们都知道,大语言模型(LLM)能够以一种无需模型微调的方式从少量示例中学习,这种方式被称为「上下文学习」(In-context Learn...
用AI大模型「改造」QQ浏览器搜索,腾讯独家揭秘
机器之心专栏作者:周天华、马晋、刘杰腾讯QQ浏览器搜索应用部1:引言自从搜索引擎问世以来,信息检索算法历经多次技术更迭,其演进的历程可大致归纳为四个技...