58行代码把Llama 3扩展到100万上下文,任何微调版都适用

AIGC动态8个月前发布 量子位
19 0 0

58行代码把Llama 3扩展到100万上下文,任何微调版都适用

AIGC动态欢迎阅读

原标题:58行代码把Llama 3扩展到100万上下文,任何微调版都适用
关键字:上下文,模型,版本,原版,团队
文章来源:量子位
内容字数:2600字

内容摘要:


梦晨 发自 凹非寺量子位 | 公众号 QbitAI堂堂开源之王Llama 3,原版上下文窗口居然只有……8k,让到嘴边的一句“真香”又咽回去了。‍
在32k起步,100k寻常的今天,这是故意要给开源社区留做贡献的空间吗?
开源社区当然不会放过这个机会:
现在只需58行代码,任何Llama 3 70b的微调版本都能自动扩展到1048k(一百万)上下文。
背后是一个LoRA,从扩展好上下文的Llama 3 70B Instruct微调版本中提取出来,文件只有800mb。
接下来使用Mergekit,就可以与其他同架构模型一起运行或直接合并到模型中。
所使用的1048k上下文微调版本,刚刚在流行的大海捞针测试中达到全绿(100%准确率)的成绩。
不得不说,开源的进步速度是指数级的。
1048k上下文LoRA怎么炼成的首先1048k上下文版Llama 3微调模型来自Gradient AI,一个企业AI解决方案初创公司。
而对应的LoRA来自开发者Eric Hartford,通过比较微调模型与原版的差异,提取出参数的变化。
他先制作了524k上下文版,随后又更新了1048k版本。
首先,Grad


原文链接:58行代码把Llama 3扩展到100万上下文,任何微调版都适用

联系作者

文章来源:量子位
作者微信:QbitAI
作者简介:追踪人工智能新趋势,关注科技行业新突破

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...