标签:方法

今日arXiv最热NLP大模型论文:微软发布:大模型时代的可解释机器学习,现状与挑战

夕小瑶科技说 原创作者 | 谢年年、Python自深度学习开启了人工智能的黑盒模式,模型的可解释性一直都是专家学者讨论研究的重点。 为什么可解释性问题这么重要...
阅读原文

大语言模型的深度裁剪法

‍夕小瑶科技说 原创作者 | 芒果、Python‍引言:大语言模型的计算挑战与优化需求在人工智能领域,大语言模型(LLMs)已经成为推动语言理解和生成任务进步的重...
阅读原文

小样本学习只是一场学术界自嗨吗?

700个开发硬件免费申请➕现金大奖!生成式 AI、机器人 AI、PC AI 三大赛道!AMD Pervasive AI 开发者挑战赛报名火热进行中,扫码了解详情并报名~导读本文是知...
阅读原文

港中文联合MIT提出超长上下文LongLoRA大模型微调算法

大数据文摘受权转载自将门创投 现阶段,上下文窗口长度基本上成为了评估LLM能力的硬性指标,上下文的长度越长,代表大模型能够接受的用户要求越复杂,近期Ope...
阅读原文

AI模拟器拿下物理仿真新SOTA!|SIGGRAPH Asia 2023最佳论文

NFM团队 投稿量子位 | 公众号 QbitAI机器学习让计算机图形学(CG)仿真更真实了! 方法名为神经流向图(Neural Flow Maps,NFM),四个涡旋的烟雾也能精确模...
阅读原文

大型语言模型的模型压缩与高效推理:综述

来源:专知 基于Transformer的大型语言模型取得了巨大成功。然而,在推理过程中产生的显著内存和计算成本,使得在资源受限的设备上部署大型模型变得具有挑战...
阅读原文

Meta发布抽象链,大模型工具利用精度+6%,速度+40%!

夕小瑶科技说 原创编辑 | 芒果引言:大语言模型与真实世界知识的对齐挑战在人工智能领域,大型语言模型(LLMs)的发展已经取得了显著进步,特别是在理解和执...
阅读原文

如何解决大模型增量预训练中的灾难性遗忘?

目前不少开源模型在通用领域具有不错的效果,但由于缺乏领域数据,往往在一些垂直领域中表现不理想,这时就需要增量预训练和微调等方法来提高模型的领域能力...
阅读原文

OpenAI、斯坦福大学提出Meta-Prompting,有效提升语言模型的性能

夕小瑶科技说 原创作者 | 智商掉了一地、Python 为了研究如何提高语言模型的性能,使其更充分有效地输出对于提问的回答,来自斯坦福和 OpenAI 的学者强强联手...
阅读原文

重塑3D生成核心理论:VAST、港大、清华用「零」训练数据生成了3D模型

机器之心专栏 机器之心编辑部AI 生成 3D 模型最难的一关,终于被搞定了。无需任何训练数据,只需对着模型描述一句话,如「一个做作业的香蕉人」:或是「一只...
阅读原文

汤晓鸥带队:免调优长视频生成,可支持512帧!任何扩散模型都能用|ICLR'24

丰色 发自 凹非寺量子位 | 公众号 QbitAI想要AI生成更长的视频? 现在,有人提出了一个效果很不错的免调优方法,直接就能作用于预训练好的视频扩散模型。 它...
阅读原文

首个通用双向Adapter多模态目标追踪方法BAT,入选AAAI 2024

机器之心专栏 机器之心编辑部能够有效实现多模态交叉提示跟踪。 目标跟踪是计算机视觉的一项基础视觉任务,由于计算机视觉的快速发展,单模态 (RGB) 目标跟踪...
阅读原文

小模型增强可超GPT-4?北航 && 人大 | 提出大模型ICL增强范式,模型越小收益越高!

引言:上下文学习(In-context Learning,ICL)技术是提高模型在自然语言处理任务上表现的高效提示技术,因而众多研究在这个方向上提出各种方法,但大多数都...
阅读原文

ICLR 2024 Oral | 三行代码,即插即用!NUS尤洋团队新作—InfoBatch,无损数据集动态剪枝加速

大数据文摘受权转载自将门创投 本文介绍来自NUS尤洋团队的最新科研成果 - InfoBatch。这是首篇关于无损数据剪枝加速的工作,覆盖分类、分割、检测、图片生成...
阅读原文

一张照片,为深度学习巨头们定制人像图片

机器之心专栏 作者:InstantX 团队主题驱动的文本到图像生成,通常需要在多张包含该主题(如人物、风格)的数据集上进行训练,这类方法中的代表工作包括 Drea...
阅读原文
1121314151621