标签:样本
用RLHF 2%的算力让LLM停止有害输出,字节提出LLM遗忘学习
机器之心专栏机器之心编辑部如何让LLM “忘记” 学到的有害内容?随着大型语言模型(LLM)的发展,从业者面临更多挑战。如何避免 LLM 产生有害回复?如何快速删...
微调都不要了?3个样本、1个提示搞定LLM对齐,提示工程师:全都回来了
机器之心报道机器之心编辑部大模型的效果好不好,有时候对齐调优很关键。但近来很多研究开始探索无微调的方法,艾伦人工智能研究所和华盛顿大学的研究者用「...
NeurIPS 2023 | 模仿人类举一反三,数据集扩增新范式GIF框架来了
机器之心专栏机器之心编辑部在这篇 NeurIPS 2023 论文中,来自新加坡国立大学和字节跳动的学者们受人类联想学习的启发,提出了数据集扩增的新范式,有效地提...
微软仅凭「提示工程」让GPT-4成医学专家!超过一众高度微调模型,专业测试准确率首次超90%
西风 发自 凹非寺量子位 | 公众号 QbitAI微软最新研究再次证明了提示工程的威力——无需额外微调,无需专家策划,仅凭提示,GPT-4就能化身“专家”。使用他们提出...
大模型没有自我改进能力?苏黎世理工联合Meta AI提出小模型架构,显著提升大模型表现
夕小瑶科技说 原创作者 | 谢年年、python前段时间,多位大佬发文指出大模型没有自我改进的能力,甚至自我改进之后,回答质量还会明显下降。自我改进之所以不...
材质界的ImageNet,大规模6维材质实拍数据库OpenSVBRDF发布|SIGGRAPH Asia
机器之心专栏机器之心编辑部在计算图形学领域,材质外观刻画了真实物体与光线之间的复杂物理交互,通常可表达为随空间位置变化的双向反射分布函数(Spatially...
小模型如何进行上下文学习?字节跳动 & 华东师大联合提出自进化文本识别器
机器之心专栏机器之心编辑部我们都知道,大语言模型(LLM)能够以一种无需模型微调的方式从少量示例中学习,这种方式被称为「上下文学习」(In-context Learn...
用AI大模型「改造」QQ浏览器搜索,腾讯独家揭秘
机器之心专栏作者:周天华、马晋、刘杰腾讯QQ浏览器搜索应用部1:引言自从搜索引擎问世以来,信息检索算法历经多次技术更迭,其演进的历程可大致归纳为四个技...
13B模型全方位碾压GPT-4?这背后有什么猫腻
机器之心报道编辑:陈萍你的测试集信息在训练集中泄漏了吗?一个参数量为 13B 的模型竟然打败了顶流 GPT-4?就像下图所展示的,并且为了确保结果的有效性,这...
「对齐」太强是坏事?人大最新研究:完美正样本反而会损害「图对比学习」
新智元报道编辑:LRS【新智元导读】人民大学最新研究指出,更好的数据增强虽然可以提升其在下游任务的泛化能力,但也会减弱对比学习的上游性能。近年来,由于...
当数据成为「生产资料」,三篇论文总结如何用水印技术保护AI训练数据版权
机器之心原创作者:Jiying编辑:H4O1、引言 -- 为什么要在 AI 训练数据中添加水印?深度神经网络(DNN)以其高效率和高效益被广泛应用于许多关键任务应用和设...
用AI评估AI,上交大新款大模型部分任务超越GPT-4,模型数据都开源
Pengfei Liu 投稿自 凹非寺量子位 | 公众号 QbitAI评估大模型对齐表现最高效的方式是?在生成式AI趋势里,让大模型回答和人类价值(意图)一致非常重要,也就...
美国阿贡国家实验室发布快速自动扫描套件 FAST,助力显微技术「快速阅读」成为可能
By 超神经「我高兴地在北京市的天安门广场上看红色的国旗升起」快速阅读一下这个句子,大家可能会发现,只需「我在天安门广场看升旗」几个字,就能概述我们需...
再见了,提示~ 谷歌发布自适应提示方法,从此告别提示工程!
夕小瑶科技说 原创作者 | 谢年年、ZenMoore大模型虽好,但却存在着一个恼人的问题:大模型回答得好不好,取决于我们问题问得怎么样。一个好的、详细的问题往...
从「最强2D」升维「最强3D」!智源联合清北重磅发布10亿参数Uni3D视觉大模型
新智元报道编辑:好困【新智元导读】最近,智源、清华和北大联合发布了全新的10亿参数的3D视觉通用模型——Uni3D,在主流3D视觉能力上取得了全方位的性能突出!...