原作者带队,LSTM真杀回来了!

原作者带队,LSTM真杀回来了!

AIGC动态欢迎阅读

原标题:原作者带队,LSTM真杀回来了!
关键字:门控,内存,研究者,单元,空间
文章来源:机器之心
内容字数:5622字

内容摘要:


机器之心报道
编辑:蛋酱LSTM:这次重生,我要夺回 Transformer 拿走的一切。20 世纪 90 年代,长短时记忆(LSTM)方法引入了恒定误差选择轮盘和门控的核心思想。三十多年来,LSTM 经受住了时间的考验,并为众多深度学习的成功案例做出了贡献。然而,以可并行自注意力为核心 Transformer 横空出世之后,LSTM 自身所存在的局限性使其风光不再。
当人们都以为 Transformer 在语言模型领域稳坐江山的时候,LSTM 又杀回来了 —— 这次,是以 xLSTM 的身份。
5 月 8 日,LSTM 提出者和奠基者 Sepp Hochreiter 在 arXiv 上传了 xLSTM 的预印本论文。论文的所属机构中还出现了一家叫做「NXAI」的公司,Sepp Hochreiter 表示:「借助 xLSTM,我们缩小了与现有最先进 LLM 的差距。借助 NXAI,我们已开始构建自己的欧洲 LLM。」论文标题:xLSTM: Extended Long Short-Term Memory
论文链接:https://arxiv.org/pdf/2405.04517
具体来说


原文链接:原作者带队,LSTM真杀回来了!

联系作者

文章来源:机器之心
作者微信:almosthuman2014
作者简介:专业的人工智能媒体和产业服务平台

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...