AIGC动态欢迎阅读
原标题:原作亲自下场!Mistral首款开源7B Mamba模型「埃及艳后」效果惊艳
关键字:模型,架构,上下文,基准,优势
文章来源:新智元
内容字数:0字
内容摘要:
新智元报道编辑:编辑部
【新智元导读】最近,7B小模型又成为了AI巨头们竞相追赶的潮流。继谷歌的Gemma2 7B后,Mistral今天又发布了两个7B模型,分别是针对STEM学科的Mathstral,以及使用Mamaba架构的代码模型Codestral Mamba。Mistral又惊喜上新了!
就在今天,Mistral发布了两款小模型:Mathstral 7B和Codestral Mamba 7B。
首先是专为数学推理和科学发现设计的Mathstral 7B。
在MATH基准测试中,它获得了56.6% pass@1的成绩,比Minerva 540B提高了20%以上。Mathstral在MATH上的得分为68.4%,使用奖励模型得分为74.6%。
而代码模型Codestral Mamba,是首批采用Mamba 2架构的开源模型之一。
它是可用的7B代码模型中最佳的,使用256k token的上下文长度进行训练。
两款模型均在Apache 2.0许可证下发布,目前权重都已上传HuggingFace仓库。
Hugging Face地址:https://huggingface.co/mis
原文链接:原作亲自下场!Mistral首款开源7B Mamba模型「埃及艳后」效果惊艳
联系作者
文章来源:新智元
作者微信:AI_era
作者简介:智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人革命对人类社会与文明进化的影响,领航中国新智能时代。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...