清华厦大等提出“无限长上下文”技术,100万大海捞针全绿,Llama\\Qwen\\MiniCPM都能上分

清华厦大等提出“无限长上下文”技术,100万大海捞针全绿,Llama\Qwen\MiniCPM都能上分

AIGC动态欢迎阅读

原标题:清华厦大等提出“无限长上下文”技术,100万大海捞针全绿,Llama\\Qwen\\MiniCPM都能上分
关键字:片段,模型,文本,信息,框架
文章来源:量子位
内容字数:0字

内容摘要:


LLMxMapReduce团队 投稿量子位 | 公众号 QbitAI大模型的记忆限制被打破了,变相实现“无限长”上下文。
最新成果,来自清华、厦大等联合提出的LLMxMapReduce长本文分帧处理技术。
LLMxMapReduce技术通过将长上下文切分为多个片段,可以让模型并行处理多个片段,并从不同片段中提取关键信息,然后汇总成为最终的答案。
特别地,团队提出结构化通信协议和上下文置信度校准机制,实现对跨片段信息更有效的处理。这项技术可以打破大模型的记忆限制,实现上下文长度无限稳定拓展。
LLMxMapReduce技术可作为大模型的长文本上分神器——它对大模型长文本能力具有普遍增强作用,且在文本不断加长的情况下,仍能保持稳定性能、减少长文本的掉分情况。
比如结合了LLMxMapReduce框架之后的Llama3-70B-Instruct x MapReduce模型得分超越了包含Kimi、GPT-4在内的知名闭源和开源模型以及其他基于Llama3-70B-Instruct的分治方法(即LongAgent和Chain-of-Agents)。
此外,LLMxMapReduce框架展现出较强


原文链接:清华厦大等提出“无限长上下文”技术,100万大海捞针全绿,Llama\\Qwen\\MiniCPM都能上分

联系作者

文章来源:量子位
作者微信:
作者简介:

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...