简化版Transformer来了,网友:年度论文

AIGC动态1年前 (2023)发布 机器之心
18 0 0

简化版Transformer来了,网友:年度论文

AIGC动态欢迎阅读

原标题:简化版Transformer来了,网友:年度论文

关键字:研究者,速度,模型,深度,参数

文章来源:机器之心

内容字数:8398字

内容摘要:机器之心报道机器之心编辑部从大模型的根源开始优化。Transformer 架构可以说是近期深度学习领域许多成功案例背后的主力军。构建深度 Transformer 架构的一种简单方法是将多个相同的 Transformer 「块」(block)依次堆叠起来,但每个「块」都比较复杂,由许多不同的组件组成,需要以特定的排列组合才能实现良好的性能。自从 2017 年 Transformer 架构诞生以来,研究者们基于其推出了大量衍生研究,但几乎没有改动过 Transformer 「块」。那么问题来了,标准 Transformer 块是否可以简化?在最近的一篇论文中,来自 ETH Zurich 的研究者讨论了如何在不影响收敛特性和下游任务性能的情况下简化 LLM 所必需的标准 Transformer 块。基于信号传播理论和经验证据,他们发现可以移除一些部分,比如残差连接、归一化层(LayerNorm)…

原文链接:点此阅读原文:简化版Transformer来了,网友:年度论文

联系作者

文章来源:机器之心

作者微信:almosthuman2014

作者简介:专业的人工智能媒体和产业服务平台

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...