AIGC动态欢迎阅读
原标题:微软「小而美」系列三连发!视觉小钢炮PK GPT-4o,MoE新秀力压Llama 3.1
关键字:模型,任务,基准,参数,微软
文章来源:新智元
内容字数:0字
内容摘要:
新智元报道编辑:耳朵 好困
【新智元导读】微软Phi 3.5系列上新了!mini模型小而更美,MoE模型首次亮相,vision模型专注多模态。就在今天,微软「小语言模型」系列正式升级,最新的Phi 3.5版本一口气连发三款模型——
– 38.2亿参数的Phi-3.5-mini-instruct
– 419亿参数的Phi-3.5-MoE-instruct
– 41.5亿参数的Phi-3.5-vision-instruct
这三个模型都可供开发人员在Hugging Face上下载、使用和微调,并获得了微软的MIT许可证,可以进行不受限制的商业应用和修改。
别看规模不大,但这三个模型在很多第三方基准测试中都性能表现都相当不错,甚至在某些情况下击败了其他领先大模型,包括谷歌的Gemini 1.5 Flash、Meta的Llama 3.1,甚至在一些竞技场上击败了OpenAI的GPT-4o。
优秀的性能加上宽松的开放许可证,网友在社交网络上纷纷试用并点赞Phi 3.5新系列:
接下来,根据Hugging Face上的发行说明,简要介绍一下三款新型号模型的不同特点和用途。
Phi-3.5-min
原文链接:微软「小而美」系列三连发!视觉小钢炮PK GPT-4o,MoE新秀力压Llama 3.1
联系作者
文章来源:新智元
作者微信:
作者简介:
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...