法国版OpenAI杀疯了!1760亿参数MoE登开源榜首,3张A100显卡可跑,杨立昆转发“逆天”评论

AIGC动态9个月前发布 智东西
4 0 0

法国版OpenAI杀疯了!1760亿参数MoE登开源榜首,3张A100显卡可跑,杨立昆转发“逆天”评论

AIGC动态欢迎阅读

原标题:法国版OpenAI杀疯了!1760亿参数MoE登开源榜首,3张A100显卡可跑,杨立昆转发“逆天”评论
关键字:模型,社区,磁力,显卡,榜首
文章来源:智东西
内容字数:4817字

内容摘要:


Mistral AI低调开源8x22B超大杯。
作者|香草
编辑|李水青
智东西4月11日报道,就在昨日谷歌Cloud Next大会当天,“欧洲版OpenAI”Mistral AI又一次悄然秀肌肉,甩出全新MoE(专家混合)大模型Mixtral 8x22B磁力链接,模型参数规模高达1760亿,仅次于马斯克的Grok-1,成为市面上参数规模第二大的开源模型。
▲Mistral AI发布Mixtral 8x22B
Mixtral 8x22B由8个专家模型构成,每个模型的参数规模220亿,模型文件大小约为262GB。测评成绩方面,Mixtral 8x22B在MMLU(大规模多任务语言理解)登顶开源模型榜首,Hellaswag、TruthfulQA、GSM8K等多项测评成绩超越Llama 2 70B、GPT-3.5以及Claude 3 Sonnet。
这是近日继OpenAI的视觉版GPT-4 Turbo和谷歌的Gemini 1.5 Pro全面更新后,大模型厂商们发布的第三个重要型号。此外,Meta还暗示将在下个月发布Llama 3。
推荐智东西年度会议。4月18-19日,2024中国生成式AI


原文链接:法国版OpenAI杀疯了!1760亿参数MoE登开源榜首,3张A100显卡可跑,杨立昆转发“逆天”评论

联系作者

文章来源:智东西
作者微信:zhidxcom
作者简介:智能产业新媒体!智东西专注报道人工智能主导的前沿技术发展,和技术应用带来的千行百业产业升级。聚焦智能变革,服务产业升级。

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...