最新开源模型Mixtral震爆AI社区!超越LLama2和GPT-3.5,来自欧洲初创公司

最新开源模型Mixtral震爆AI社区!超越LLama2和GPT-3.5,来自欧洲初创公司

AIGC动态欢迎阅读

原标题:最新开源模型Mixtral震爆AI社区!超越LLama2和GPT-3.5,来自欧洲初创公司

关键字:模型,格局,性能,竞争,科学家

文章来源:夕小瑶科技说

内容字数:2197字

内容摘要:夕小瑶科技说 原创作者 | 松果、王二狗这两天,法国初创公司Mistral AI开源的一个Mixtral 8x7B MoE模型引爆了AI社区。一是因为它的性能击败了LLama2和GPT-3.5。二是因为,Mixtral是一个专家混合模型(Mixture-of-Experts model,MoE),使用了传闻中 OpenAI 用于GPT-4的架构,但是参数相比GPT-4要小很多,堪称是缩小版“GPT-4”。而且这个模型还开源了,Mistral AI甚至直接通过torrent链接将其甩在推特上发布。huggingface下载链接:https://huggingface.co/mistralai/Mixtral-8x7B-Instruct-v0.1Mixtral 8x7B MoE模型当前:在 Apache 2.0 许可下免费使用;推理速度提高6 倍,性能优于 Llama 2 70B模型。性能匹配…

原文链接:点此阅读原文:最新开源模型Mixtral震爆AI社区!超越LLama2和GPT-3.5,来自欧洲初创公司

联系作者

文章来源:夕小瑶科技说

作者微信:xixiaoyaoQAQ

作者简介:更快的AI前沿,更深的行业洞见。聚集25万AI应用开发者、算法工程师和研究人员。一线作者均来自清北、国外顶级AI实验室和互联网大厂,兼备媒体sense与技术深度。

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...