AIGC动态欢迎阅读
原标题:今日ArXiv最骚NLP论文:大模型却能大幅提升效果的骚操作
关键字:提示,模型,幻觉,报告,性能
文章来源:夕小瑶科技说
内容字数:5009字
内容摘要:
夕小瑶科技说 原创作者 |谢年年、python在大模型的提示工程中,少样本提示,思维链提示(CoT)都是行之有效的方法,通过为大模型提供几个样例,为模型提供更多更相关的上下文,让模型回答时有所参照,可以提高模型性能。
没想到,骗大模型说有样例,实则并没有提供样例,也能实现模型性能提升,如下图所示:
通过提示模型查看“样例”部分中的样例,并利用该部分中的样例和信息执行以下任务。此处的 “样例”部分在上下文中并不存在。
好家伙,无招胜有招啊!还能这么玩。
今天介绍的这篇论文发现通过如此简单提示,可以提高模型在大多数任务上的性能。相比zero-shot,使用GPT-3.5 Turbo在算术推理任务上改进高达33.94%。
由于样例部分为空,论文将这种提示取名为 ∅-shot或者Null-Shot。
为了与GPT-3的论文《Language Models are Few-Shot Learners》呼应,作者还将论文标题定为:
《Large Language Models are Null-Shot Learners》
论文链接:https://arxiv.org/pdf/2401.08273
原文链接:今日ArXiv最骚NLP论文:大模型却能大幅提升效果的骚操作
联系作者
文章来源:夕小瑶科技说
作者微信:xixiaoyaoQAQ
作者简介:更快的AI前沿,更深的行业洞见。聚集25万AI应用开发者、算法工程师和研究人员。一线作者均来自清北、国外顶级AI实验室和互联网大厂,兼备媒体sense与技术深度。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...