单一作者论文,谷歌提出百万专家Mixture,超越密集前馈、稀疏MoE

单一作者论文,谷歌提出百万专家Mixture,超越密集前馈、稀疏MoE

AIGC动态欢迎阅读

原标题:单一作者论文,谷歌提出百万专家Mixture,超越密集前馈、稀疏MoE
关键字:专家,密钥,模型,研究者,数量
文章来源:机器之心
内容字数:0字

内容摘要:


机器之心报道
编辑:泽南、杜伟释放进一步扩展 Transformer 的潜力,同时还可以保持计算效率。标准 Transformer 架构中的前馈(FFW)层会随着隐藏层宽度的增加而导致计算成本和激活内存的线性增加。在大语言模型(LLM)体量不断增大的现在,稀疏混合专家(MoE)架构已成为解决此问题的可行方法,它将模型大小与计算成本分离开来。很多新兴的 MoE 模型都可以实现相同体量之上,更好的性能与更强大的表现。
最近发现的细粒度 MoE 扩展定律表明,更高的粒度可带来更好的性能。然而由于计算和优化方面的挑战,现有的 MoE 模型仅限于低数量专家。
本周二,Google DeepMind 的新研究引入了一种参数高效的专家检索机制,其利用乘积密钥技术从一百万个微型专家中进行稀疏检索。链接:https://arxiv.org/abs/2407.04153
该方法尝试通过用于路由的学习索引结构有效地串联到大量微小专家,从而将计算成本与参数计数分离。与密集的 FFW、粗粒度 MoE 和产品密钥存储器 (PKM) 层相比,表现出卓越的效率。
这项工作引入了参数高效专家检索(PEER) 架构(pa


原文链接:单一作者论文,谷歌提出百万专家Mixture,超越密集前馈、稀疏MoE

联系作者

文章来源:机器之心
作者微信:almosthuman2014
作者简介:专业的人工智能媒体和产业服务平台

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...