一句话解锁100k+上下文大模型真实力,27分涨到98,GPT-4、Claude2.1适用

AIGC动态1年前 (2023)发布 量子位
17 0 0

一句话解锁100k+上下文大模型真实力,27分涨到98,GPT-4、Claude2.1适用

AIGC动态欢迎阅读

原标题:一句话解锁100k+上下文模型真实力,27分涨到98,GPT-4、Claude2.1适用

关键字:测试,上下文,模型,公司,句子

文章来源:量子位

内容字数:3272字

内容摘要:梦晨 发自 凹非寺量子位 | 公众号 QbitAI各家大模型纷纷卷起上下文窗口,Llama-1时标配还是2k,现在不超过100k的已经不好意思出门了。然鹅一项极限测试却发现,大部分人用法都不对,没发挥出AI应有的实力。AI真的能从几十万字中准确找到关键事实吗?颜色越红代表AI犯的错越多。默认情况下,GPT-4-128k和最新发布的Claude2.1-200k成绩都不太理想。但Claude团队了解情况后,给出超简单解决办法,增加一句话,直接把成绩从27%提升到98%。只不过这句话不是加在用户提问上的,而是让AI在回复的开头先说:‍‍‍‍‍‍‍‍“Here is the most relevant sentence in the context:”‍‍‍‍(这就是上下文中最相关的句子:)让大模型大海捞针为了做这项测试,作者Greg Kamradt自掏腰包花费了至少150美元。好在测试Claud…

原文链接:点此阅读原文:一句话解锁100k+上下文大模型真实力,27分涨到98,GPT-4、Claude2.1适用

联系作者

文章来源:量子位

作者微信:QbitAI

作者简介:追踪人工智能新趋势,关注科技行业新突破

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...