AIGC动态欢迎阅读
原标题:8x7B开源MoE击败Llama 2逼近GPT-4!欧版OpenAI震惊AI界,22人公司半年估值20亿
文章来源:新智元
内容字数:8113字
内容摘要:新智元报道编辑:编辑部【新智元导读】前几日,一条MoE的磁力链接引爆AI圈。刚刚出炉的基准测试中,8*7B的小模型直接碾压了Llama 2 70B!网友直呼这是初创公司版的超级英雄故事,要赶超GPT-4只是时间问题了。有趣的是,创始人姓氏的首字母恰好组成了「L.L.M.」。开源奇迹再一次上演:Mistral AI发布了首个开源MoE大模型。几天前,一条磁力链接,瞬间震惊了AI社区。87GB的种子,8x7B的MoE架构,看起来就像一款mini版「开源GPT-4」!无发布会,无宣传视频,一条磁力链接,就让开发者们夜不能寐。这家成立于法国的AI初创公司,在开通官方账号后仅发布了三条内容。6月,Mistral AI上线。7页PPT,获得欧洲历史上最大的种子轮融资。9月,Mistral 7B发布,号称是当时最强的70亿参数开源模型。12月,类GPT-4架构的开源版本Mistral 8x7B发布。几天…
原文链接:点此阅读原文:8x7B开源MoE击败Llama 2逼近GPT-4!欧版OpenAI震惊AI界,22人公司半年估值20亿
联系作者
文章来源:新智元
作者微信:AI_era
作者简介:智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人革命对人类社会与文明进化的影响,领航中国新智能时代。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...