AIGC动态欢迎阅读
原标题:OpenAI把GPT-4原始版给了他们:研究不微调只靠提示词能走多远
关键字:模型,示例,指令,上下文,发现
文章来源:量子位
内容字数:0字
内容摘要:
梦晨 发自 凹非寺量子位 | 公众号 QbitAI除了OpenAI自己,居然还有别人能用上GPT-4-Base版??
也就是未经微调的预训练版,还不会对话,只会补全句子的模型。
EPFL(瑞士洛桑联邦理工)团队申请到了访问权限,用于研究“上下文学习足以让大模型跟随指令吗?”。
也就是不用监督微调、也不用RHLF或其他强化学习对齐方法,只靠提示词能走多远?
预训练模型,究竟能不能一步登天,直接改造成机器人或AI助手?
如果可行,将大大降低类ChatGPT大模型的开发难度。
免微调对齐靠谱吗?免微调对齐,让刚出炉的预训练模型不止会“文本补全”,只从提示词中学会和用户对话、跟随指令,一直是业界关注的研究方向。
目前的SOTA方法URIAL来自艾伦研究所,使用系统提示词+少数风格示例就能达到不错的效果。
但EPFL团队发现,URIAL仍无法完全弥补与指令微调模型的差距,尤其在多轮对话中的表现更差一些。
实验中,在Llama系列、Mistral系列和一般人接触不到的GPT-4-Base都观察到这种现象。
其中GPT-4-Base的API访问权限从OpenAI Researcher
原文链接:OpenAI把GPT-4原始版给了他们:研究不微调只靠提示词能走多远
联系作者
文章来源:量子位
作者微信:QbitAI
作者简介:追踪人工智能新趋势,关注科技行业新突破
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...