一个提示,让Llama 2准确率飙至80.3%?Meta提出全新注意力机制S2A,大幅降低模型幻觉

AIGC动态1年前 (2023)发布 新智元
16 0 0

一个提示,让Llama 2准确率飙至80.3%?Meta提出全新注意力机制S2A,大幅降低模型幻觉

AIGC动态欢迎阅读

原标题:一个提示,让Llama 2准确率飙至80.3%?Meta提出全新注意力机制S2A,大幅降低模型幻觉

关键字:上下文,模型,研究人员,提示,答案

文章来源:新智元

内容字数:7039字

内容摘要:新智元报道编辑:alan【新智元导读】大语言模型「拍马屁」的问题到底要怎么解决?最近,LeCun转发了Meta发布的一篇论文,研究人员提出了新的方法,有效提升了LLM回答问题的事实性和客观性。我们一起来看一下吧。2023的科技界,可以说是被大模型抢尽了风头(虚假的室温超导除外)。我们经历了和LLM对话,见证了它们逐渐进入各个领域,甚至开始感受到威胁。这一切,仅仅发生在一年之内。当然了,基于大语言模型的原理,它诞生之时就有的一些毛病到现在也没有完全改正。比如偏见(或包含不良信息)、幻觉(编造不存在的事情)、推理能力仍然比较弱(尽管有了step by step),还有一个问题是LLM倾向于迎合使用者的观点(阿谀奉承)。第一个问题比较严重,因为它违背了大众的价值观。作为一个早于ChatGPT发布,又具有强大能力的产品,确实有点可惜。不过人与人的境遇都千差万别,模型也要接受现实。对于最后一个问题,…

原文链接:点此阅读原文:一个提示,让Llama 2准确率飙至80.3%?Meta提出全新注意力机制S2A,大幅降低模型幻觉

联系作者

文章来源:新智元

作者微信:AI_era

作者简介:智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人对人类社会与文明进化的影响,领航中国新智能时代。

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...