8x7B开源MoE击败Llama 2逼近GPT-4!欧版OpenAI震惊AI界,22人公司半年估值20亿

AIGC动态1年前 (2023)发布 新智元
37 0 0

8x7B开源MoE击败Llama 2逼近GPT-4!欧版OpenAI震惊AI界,22人公司半年估值20亿

AIGC动态欢迎阅读

原标题:8x7B开源MoE击败Llama 2逼近GPT-4!欧版OpenAI震惊AI界,22人公司半年估值20亿

关键字:模型,公司,专家,基准,数据

文章来源:新智元

内容字数:8113字

内容摘要:新智元报道编辑:编辑部【新智元导读】前几日,一条MoE的磁力链接引爆AI圈。刚刚出炉的基准测试中,8*7B的小模型直接碾压了Llama 2 70B!网友直呼这是初创公司版的超级英雄故事,要赶超GPT-4只是时间问题了。有趣的是,创始人姓氏的首字母恰好组成了「L.L.M.」。开源奇迹再一次上演:Mistral AI发布了首个开源MoE大模型。几天前,一条磁力链接,瞬间震惊了AI社区。87GB的种子,8x7B的MoE架构,看起来就像一款mini版「开源GPT-4」!无发布会,无宣传视频,一条磁力链接,就让开发者们夜不能寐。这家成立于法国的AI初创公司,在开通官方账号后仅发布了三条内容。6月,Mistral AI上线。7页PPT,获得欧洲历史上最大的种子轮融资。9月,Mistral 7B发布,号称是当时最强的70亿参数开源模型。12月,类GPT-4架构的开源版本Mistral 8x7B发布。几天…

原文链接:点此阅读原文:8x7B开源MoE击败Llama 2逼近GPT-4!欧版OpenAI震惊AI界,22人公司半年估值20亿

联系作者

文章来源:新智元

作者微信:AI_era

作者简介:智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人对人类社会与文明进化的影响,领航中国新智能时代。

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...