标签:底数

LLaMA2上下文长度暴涨至100万tokens,只需调整1个超参数|复旦邱锡鹏团队出品

萧箫 发自 凹非寺量子位 | 公众号 QbitAI只需微调一下,大模型支持上下文大小就能从1.6万tokens延长至100万?!还是在只有70亿参数的LLaMA 2上。要知道,即使...
阅读原文