清华唐杰团队新作:一口气生成2万字,大模型开卷长输出

AIGC动态1个月前发布 量子位
3 0 0

清华唐杰团队新作:一口气生成2万字,大模型开卷长输出

AIGC动态欢迎阅读

原标题:清华唐杰团队新作:一口气生成2万字,大模型开卷长输出
关键字:模型,长度,数据,文本,研究人员
文章来源:量子位
内容字数:0字

内容摘要:


明敏 发自 凹非寺量子位 | 公众号 QbitAI一口气生成2万字,大模型输出也卷起来了!
清华&智谱AI最新研究,成功让GLM-4、Llama-3.1输出长度都暴增。
相同问题下,输出结果直接从1800字增加到7800字,翻4倍。
要知道,目前大模型的生成长度普遍在2k以下。这对于内容创作、问题回答等都存在影响,可能导致模型回答问题不全面、创造性降低等。
该研究由智谱AI创始人、清华大学教授李涓子和唐杰共同领衔。
论文及代码都已放在GitHub上开源。
有网友已经抢先体验。LongWriter-llama3.1-8b可生成万字长文《罗马帝国衰落史》,在MacBook Pro 2018(32GB)上就能运行。
输出内容很准确,可以得A++。
9B模型搞定万字输出本项研究主要包括3方面工作。
分析文本生成长度限制因素
提出AgentWrite
扩展LLM输出窗口大小
首先,研究人员构建了一个测试工具LongWrite-Ruler。通过测试多个大模型,他们发现所有模型在生成超过2000字的文本时都遇到了困难。
进一步分析用户和大模型的交互日志,研究人员发现只有超过1%的用户请求明确提到要生


原文链接:清华唐杰团队新作:一口气生成2万字,大模型开卷长输出

联系作者

文章来源:量子位
作者微信:
作者简介:

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...