LIama 3+Mamba强强联手!蒸馏到线性RNN,推理速度提升1.6倍

AIGC动态3个月前发布 量子位
3 0 0

LIama 3+Mamba强强联手!蒸馏到线性RNN,推理速度提升1.6倍

AIGC动态欢迎阅读

原标题:LIama 3+Mamba强强联手!蒸馏到线性RNN,推理速度提升1.6倍
关键字:模型,算法,作者,状态,标签
文章来源:量子位
内容字数:0字

内容摘要:


克雷西 发自 凹非寺量子位 | 公众号 QbitAI把Llama 3蒸馏到Mamba,推理速度最高可提升1.6倍!
而且性能不减,甚至表现比原始模型还要优异。
这是来自Together AI的新作,通过蒸馏将Transformer和Mamba模型结合到了一起,同时还为混合模型涉及了推理加速算法
提出Mamba架构的大神、FlashAttention作者Tri Dao,也参与了这一项目。
Together AI创始人兼CEO表示,Transformer和Mamba的混合,是未来大模型的一大发展方向。
将Transformer蒸馏进Mamba在蒸馏正式开始之前,需要先进行从Transformer到线性RNN的初始化。
作者观察到,Transformer的注意力机制与RNN的计算之间存在一定的相似性。
因此可以将Transformer的注意力线性化,从而建立二者的联系。
利用这种对应关系,可以将预训练的Transformer模型的参数复制到Mamba模型中。
在完成参数初始化后,作者采用了一个三阶段的蒸馏流程进一步提升Mamba模型的性能,使其更好地学习Transformer的知识。
第一阶


原文链接:LIama 3+Mamba强强联手!蒸馏到线性RNN,推理速度提升1.6倍

联系作者

文章来源:量子位
作者微信:
作者简介:

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...