深度揭秘爆火MoE!GPT-4关键架构,成开源模型逆袭杀手锏

AIGC动态11个月前发布 新智元
62 0 0

深度揭秘爆火MoE!GPT-4关键架构,成开源模型逆袭杀手锏

AIGC动态欢迎阅读

原标题:深度揭秘爆火MoE!GPT-4关键架构,成开源模型逆袭杀手锏

关键字:门控,模型,专家,神经网络,数据

文章来源:新智元

内容字数:7066字

内容摘要:新智元报道编辑:编辑部【新智元导读】上周末,Mistral甩出的开源MoE大模型,震惊了整个开源社区。MoE究竟是什么?它又是如何提升了大语言模型的性能?Mistral上周末丢出的磁力链接震惊了开源圈子,这个7B×8E的开源MoE大模型性能已经到达了LLaMA2 70B的级别!而根据Jim Fan猜测,如果Mistral内部训练了34B×8E或者甚至100B+×8E级别的模型,那他们的能力很有可能已经无限接近GPT-4了。而在之前对于GPT-4结构的曝料中,大部分的信息也指向GPT-4很可能是由8个或者是16个MoE构成。为什么MoE能成为高性能大模型的必选项?简单来说,MoE是一种神经网络架构设计,在Transformer模块中集成了专家/模型层。当数据流经MoE层时,每个输入token都会动态路由到专家子模型进行处理。当每个专家专门从事特定任务时,这种方法可以实现更高效的计算并获得更好…

原文链接:点此阅读原文:深度揭秘爆火MoE!GPT-4关键架构,成开源模型逆袭杀手锏

联系作者

文章来源:新智元

作者微信:AI_era

作者简介:智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人革命对人类社会与文明进化的影响,领航中国新智能时代。

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...