AIGC动态欢迎阅读
原标题:最新开源模型Mixtral震爆AI社区!超越LLama2和GPT-3.5,来自欧洲初创公司
文章来源:夕小瑶科技说
内容字数:2197字
内容摘要:夕小瑶科技说 原创作者 | 松果、王二狗这两天,法国初创公司Mistral AI开源的一个Mixtral 8x7B MoE模型引爆了AI社区。一是因为它的性能击败了LLama2和GPT-3.5。二是因为,Mixtral是一个专家混合模型(Mixture-of-Experts model,MoE),使用了传闻中 OpenAI 用于GPT-4的架构,但是参数相比GPT-4要小很多,堪称是缩小版“GPT-4”。而且这个模型还开源了,Mistral AI甚至直接通过torrent链接将其甩在上发布。huggingface下载链接:https://huggingface.co/mistralai/Mixtral-8x7B-Instruct-v0.1Mixtral 8x7B MoE模型当前:在 Apache 2.0 许可下免费使用;推理速度提高6 倍,性能优于 Llama 2 70B模型。性能匹配…
原文链接:点此阅读原文:最新开源模型Mixtral震爆AI社区!超越LLama2和GPT-3.5,来自欧洲初创公司
联系作者
文章来源:夕小瑶科技说
作者微信:xixiaoyaoQAQ
作者简介:更快的AI前沿,更深的行业洞见。聚集25万AI应用开发者、算法工程师和研究人员。一线作者均来自清北、国外顶级AI实验室和互联网大厂,兼备媒体sense与技术深度。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...