AIGC动态欢迎阅读
原标题:最佳开源模型刷新多项SOTA,首次超越Mixtral Instruct!「开源版GPT-4」家族迎来大爆发
关键字:模型,基准,数据,团队,人工智能
文章来源:新智元
内容字数:3691字
内容摘要:
新智元报道编辑:桃子
【新智元导读】Mixtral 8x7B模型开源后,AI社区再次迎来一微调实践。来自Nous Research应用研究小组团队微调出新一代大模型Nous-Hermes 2 Mixtral 8x7B,在主流基准测试中击败了Mixtral Instruct。Mixtral 8x7B开源模型的诞生,正如Llama一样,为开源社区了带来曙光。
前段时间,Mixtral刚刚发布了8x7B模型的论文。在基准测试结果中,其性能达到或超过 Llama 2-70B和GPT-3.5。
甚至,Mixtral在数学、代码生成和多语言理解任务方面表现亮眼。
最近,一个开源研究小组Nous Research推出了新一代旗舰大模型Nous-Hermes 2 Mixtral 8x7B。
这是首个通过RLHF训练的模型,并在主流基准测试中超越Mixtral Instruct,成为最佳开源模型。
此外,Nous Research团队发布的SFT和SFT+DPO模型,以及DPO适配器将为用户提供更多选择。
在所有的基准测试中,Nous-Hermes 2 Mixtral 8x7B模型也略不逊色。
目
原文链接:最佳开源模型刷新多项SOTA,首次超越Mixtral Instruct!「开源版GPT-4」家族迎来大爆发
联系作者
文章来源:新智元
作者微信:AI_era
作者简介:智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人对人类社会与文明进化的影响,领航中国新智能时代。