AIGC动态欢迎阅读
原标题:开源大模型王座再易主,通义千问1100亿参数拿下SOTA,3个月已推出8款模型
关键字:模型,阿里,中文,能力,开发者
文章来源:量子位
内容字数:6394字
内容摘要:
鱼羊 发自 凹非寺量子位 | 公众号 QbitAI开源大模型,已经开启大卷特卷模式。
全球范围,太平洋两岸,双雄格局正在呼之欲出。
Llama 3中杯大杯刚惊艳亮相,国内通义千问就直接开源千亿级参数模型Qwen1.5-110B,一把火上Hacker News榜首。
不仅相较于自家720亿参数模型性能明显提升,在MMLU、C-Eval、HumanEval等多个基准测试中,Qwen1.5-110B都重返SOTA开源模型宝座,超越Llama 3 70B,成最强开源大模型。
中文能力方面,对比仅喂了5%非英文数据的Llama 3 70B,Qwen1.5-110B更是优势明显。
于是乎,模型一上线,开源社区已经热烈响应起来。
这不,Qwen1.5-110B推出不到一天,帮助用户在本地环境运行创建大语言模型的Ollama平台,就已火速上线链接。
值得关注的是,这已经是3个月内通义千问开源的第8款大模型。
开源大模型都在卷些什么?那么,问题来了,因Llama 3和Qwen1.5接连开源而持续的这波开源大模型小热潮中,开源模型又在卷些什么?
如果说上一阶段由马斯克Grok和Mixtral所引领的话题热
原文链接:开源大模型王座再易主,通义千问1100亿参数拿下SOTA,3个月已推出8款模型
联系作者
文章来源:量子位
作者微信:QbitAI
作者简介:追踪人工智能新趋势,关注科技行业新突破
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...