标签:上下文

RAG微调Llama 3竟超越GPT-4!英伟达GaTech华人学者提出RankRAG框架

新智元报道编辑:乔扬好困 【新智元导读】来自佐治亚理工学院和英伟达的两名华人学者带队提出了名为RankRAG的微调框架,简化了原本需要多个模型的复杂的RAG流...
阅读原文

单卡A100实现百万token推理,速度快10倍,这是微软官方的大模型推理加速

机器之心报道 编辑:张倩、陈萍微软的这项研究让开发者可以在单卡机器上以 10 倍的速度处理超过 1M 的输入文本。大型语言模型 (LLM) 已进入长上下文处理时代...
阅读原文

强强联合!当RAG遇到长上下文,滑铁卢大学发布LongRAG,效果领先GPT-4 Turbo 50%

夕小瑶科技说 原创作者 | Axe_越过犹不及——《论语·先进》 大学考试时,有些老师允许带备cheet sheet(忘纸条),上面记着关键公式和定义,帮助我们快速作答提高...
阅读原文

谷歌重磅:告别RAG,长上下文的大语言模型无需检索增强

夕小瑶科技说 原创作者 | Richard当今人工智能领域正在经历一场静默的革命。随着大语言模型(LLM)的快速发展,它们不仅能够处理更长的上下文,还展现出惊人的...
阅读原文

ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术...
阅读原文

吴恩达团队新作:多模态多样本上下文学习,无需微调快速适应新任务

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术...
阅读原文

37项SOTA!全模态预训练范式MiCo:理解任何模态并学习通用表示|港中文&中科院

MiCo团队 投稿量子位 | 公众号 QbitAIGPT-4o掀起一股全模态(Omni-modal)热潮,去年的热词多模态仿佛已经不够看了。 要构建全模态智能,意味着能够理解任何...
阅读原文

Agent技术洞察01:增强大语言模型 Agents 的工作记忆能力

直播预告 | 6月14日上午10点,「智猩猩AI新青年讲座」第239讲正式开讲,莫纳什大学在读博士马鑫将直播讲解《DiT架构在视频生成模型中的应用与扩展》,欢迎扫...
阅读原文

开源超闭源!通义千问Qwen2发布即爆火,网友:GPT-4o危

鱼羊 发自 凹非寺量子位 | 公众号 QbitAI开源大模型全球格局,一夜再变。 这不,全新开源大模型亮相,性能全面超越开源标杆Llama 3。王座易主了。不是“媲美”...
阅读原文

阿里云发布最强开源大模型Qwen2,干翻Llama 3,比闭源模型还强

最强开源大模型一夜易主!阿里云Qwen2问鼎十几项全球权威榜单。 作者|三北 编辑|漠影 开源界最强大语言模型,Qwen2,来了! 智东西6月7日报道,今日,阿里云...
阅读原文

阿里开源Qwen2系列模型,72B有望成为开源第一!

01写在前面书接上回,开源时代,沸腾期待。 期待已久的Qwen2,他如约而至,他来了,他带着5个尺寸的大模型迎面走来了。 Blog:https://qwenlm.github.io/blog/...
阅读原文

阿里Qwen2正式开源,性能全方位包围Llama-3

机器之心报道 编辑:大盘鸡Qwen 系列会是众多大学实验室新的默认基础模型吗? 斯坦福团队套壳清华大模型的事件不断发酵后,中国模型在世界上开始得到了更多关...
阅读原文

1毛钱1百万token,写2遍红楼梦!国产大模型下一步还想卷什么?

新智元报道编辑:编辑部 【新智元导读】大模型价格战,这匹国产黑马又破纪录了!最低的GLM-4 Flash版本,百万token价格已经低至0.1元,可以说是击穿地心。Maa...
阅读原文

即插即用,快速适配!港大FlashST:简单通用的智慧交通时空预测模型 | ICML 2024

新智元报道编辑:LRT 【新智元导读】华南理工大学和香港大学的研究人员在ICML 2024上提出了一个简单而通用的时空提示调整框架FlashST,通过轻量级的时空提示...
阅读原文

英伟达新研究:上下文长度虚标严重,32K性能合格的都不多

西风 发自 凹非寺量子位 | 公众号 QbitAI无情戳穿“长上下文”大模型的虚标现象—— 英伟达新研究发现,包括GPT-4在内的10个大模型,生成达到128k甚至1M上下文长...
阅读原文
12345615