大道至简?ETH研究团队提出简化版Transformer模型,综合效率明显提升

大道至简?ETH研究团队提出简化版Transformer模型,综合效率明显提升

AIGC动态欢迎阅读

原标题:大道至简?ETH研究团队提出简化版Transformer模型,综合效率明显提升

关键字:模型,本文,基础,参数,速度

文章来源:大数据文摘

内容字数:8581字

内容摘要:大数据文摘受权转载自将门创投‍2023年,Transformer已经成为人工智能领域中最受欢迎的基础模型,如今火热的大型语言模型,多模态大模型均由不同类型的Transformer架构组成。与先前的CNN模型类似,Transformer同样遵循一个设计规范,即首先构造一个基础块,这个基础块通常由注意力块、MLP层、跳跃连接和归一化层构成,它们以特定的排列方式进行组合,随后对基础块进行堆叠形成最终的Transformer模型。不难看出,每个基础块的内部其实存在多种不同的排列方式,这种复杂性直接导致了整体架构的不稳定。本文介绍一篇来自苏黎世联邦理工学院(ETH Zurich)计算机科学系的研究工作,本文从信号传播理论的角度重新审视了标准Transformer基础块的设计缺陷,并提出了一系列可以在不降低训练速度的情况下对基础块进行优化的方案。例如直接移除跳跃连接和调整投影层参数等操作来简化基础块,…

原文链接:点此阅读原文:大道至简?ETH研究团队提出简化版Transformer模型,综合效率明显提升

联系作者

文章来源:大数据文摘

作者微信:BigDataDigest

作者简介:普及数据思维,传播数据文化

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...