Meta再放「长文本」杀器Llama 2-Long:70B尺寸登顶最强「32k上下文」模型,超越ChatGPT

AIGC动态11个月前发布 新智元
29 0 0

Meta再放「长文本」杀器Llama 2-Long:70B尺寸登顶最强「32k上下文」模型,超越ChatGPT

AIGC动态欢迎阅读

原标题:Meta再放「长文本」杀器Llama 2-Long:70B尺寸登顶最强「32k上下文模型,超越ChatGPT

关键字:模型,长上,下文,数据,任务

文章来源:新智元

内容字数:12616字

内容摘要:新智元报道编辑:LRS【新智元导读】Llama 2-Long计算量需求比重新训练降低40%,还不影响短任务性能!虽然大型语言模型在处理日常问答、总结文本等任务上表现非常出色,但如何让LLM在不显著增加计算需求、不降低短文本性能的前提下,能够处理「超长文本输入」仍然是一个难题。最近,Meta团队公开了支持长上下文的模型Llama 2 Long的训练方法,该模型的有效上下文窗口多达32768个toke…

原文链接:点此阅读原文:Meta再放「长文本」杀器Llama 2-Long:70B尺寸登顶最强「32k上下文」模型,超越ChatGPT

联系作者

文章来源:新智元

作者微信:AI_era

作者简介:智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人革命对人类社会与文明进化的影响,领航中国新智能时代。

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...