AIGC动态欢迎阅读
原标题:200亿「书生·浦语2.0」正式开源!数推性能比肩ChatGPT,200K超长上下文完美召回
关键字:模型,能力,语料,语言,数据
文章来源:新智元
内容字数:8386字
内容摘要:
新智元报道编辑:桃子 好困
【新智元导读】新一代国产开源大语言模型来了!200K超长上下文「完美」支持,20B版本综合性能全面领先。就在今天,上海人工智能实验室与商汤科技联合香港中文大学和复旦大学,正式发布新一代大语言模型书⽣·浦语2.0(InternLM2)。
Github:https://github.com/InternLM/InternLM
HuggingFace:https://huggingface.co/internlm
ModelScope:https://modelscope.cn/organization/Shanghai_AI_Laboratory
新一代InternLM2经过2.6万亿token高质量语料训练,包含7B及20B两种参数规格,以及基座、对话等版本。
它可以支持200K超长上下文,约30万字文本,在「大海捞针实验」中实现了完美的召回率。
相较于初代InternLM,新一代大模型轻量级(7B)及中量级(20B)性能在同量级模型中表现优异。尤其在数学推理方面,20B参数模型在GSM8K和MATH评测中性能超越ChatGPT(GPT-3.5)。
研究团队
原文链接:200亿「书生·浦语2.0」正式开源!数推性能比肩ChatGPT,200K超长上下文完美召回
联系作者
文章来源:新智元
作者微信:AI_era
作者简介:智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人对人类社会与文明进化的影响,领航中国新智能时代。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...