AIGC动态欢迎阅读
原标题:一句话解锁100k+上下文大模型真实力,27分涨到98,GPT-4、Claude2.1适用
文章来源:量子位
内容字数:3272字
内容摘要:梦晨 发自 凹非寺量子位 | 公众号 QbitAI各家大模型纷纷卷起上下文窗口,Llama-1时标配还是2k,现在不超过100k的已经不好意思出门了。然鹅一项极限测试却发现,大部分人用法都不对,没发挥出AI应有的实力。AI真的能从几十万字中准确找到关键事实吗?颜色越红代表AI犯的错越多。默认情况下,GPT-4-128k和最新发布的Claude2.1-200k成绩都不太理想。但Claude团队了解情况后,给出超简单解决办法,增加一句话,直接把成绩从27%提升到98%。只不过这句话不是加在用户提问上的,而是让AI在回复的开头先说:“Here is the most relevant sentence in the context:”(这就是上下文中最相关的句子:)让大模型大海捞针为了做这项测试,作者Greg Kamradt自掏腰包花费了至少150美元。好在测试Claud…
原文链接:点此阅读原文:一句话解锁100k+上下文大模型真实力,27分涨到98,GPT-4、Claude2.1适用
联系作者
文章来源:量子位
作者微信:QbitAI
作者简介:追踪人工智能新趋势,关注科技行业新突破
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...