华为诺亚发布无限上下文大模型,超越SoTA 4.3%

华为诺亚发布无限上下文大模型,超越SoTA 4.3%

AIGC动态欢迎阅读

原标题:华为诺亚发布无限上下文大模型,超越SoTA 4.3%
关键字:华为,报告,模型,事件,文本
文章来源:夕小瑶科技说
内容字数:0字

内容摘要:


夕小瑶科技说 原创作者 | Richard你的大语言模型是不是也患上了”长文健忘症”?当使用大模型遇到长上下文时总是会出现词不达意?别担心,LLM界的”记忆大师”来啦!华为诺亚方舟实验室最新推出的EM-LLM模型,就像是给大模型装上了”超级记忆芯片”,让它们轻松应对天文数字般的超长文本。这个创新模型巧妙地将人类认知科学中的事件分割和情景记忆原理融入到了LLM中,让大模型也能像人脑一样高效处理超长文本。
EM-LLM的核心秘诀在于它模仿了人类大脑处理信息的方式。它能够自动将长文本切分成有意义的”事件”,并建立类似人类情景记忆的存储结构。这种设计不仅让模型能够更好地理解和记忆长文本的内容,还能在需要时快速检索相关信息。
在LongBench长文本基准测试中,EM-LLM的整体性能超越了此前的最佳模型,平均提升4.3%。特别是在段落检索任务上,EM-LLM表现依旧非常出色,性能提升高达33%,充分展示了其在长文本理解和信息检索方面的卓越能力。
论文标题:HUMAN-LIKE EPISODIC MEMORY FOR INFINITE CONTEXT LLMS
论文链接:https://arxi


原文链接:华为诺亚发布无限上下文大模型,超越SoTA 4.3%

联系作者

文章来源:夕小瑶科技说
作者微信:
作者简介:

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...