AIGC动态欢迎阅读
内容摘要:
大数据文摘受权转载数据派THU
作者:胡赟豪
在这个信息的时代,你是否曾幻想过与机器流畅交谈,或是让AI助你笔下生花,创作出惊艳的文章?这一切,都离不开大语言模型的神奇魔力。今天,让我们一起揭开这层神秘的面纱,走进大语言模型的科普奇幻之旅!一 背景自大语言模型兴起以来,人们通过不断地增加参数量,使模型的效果得到一次又一次的跃升。但是,单纯的增加参数量只能让模型在阅读理解、事实确认等方面提升显著,在逻辑推理、数学推理等复杂推理问题方面收益却不大。
针对这一问题,一个直观的改良方法就是微调(Finetune),通过引入大量“问题+答案”形式的样本,对模型进行训练迭代参数,从而让模型专门提升这方面的能力。然而,这种方式在复杂推理等问题上带来的效果依然有限,且需要大量的训练样本。看起来模型在大量学习样本之后,似乎也并没有获得推理的能力。究竟要怎样才能让模型真正学会推理呢?
二 思维链是什么?既然模型不能直接从“问题+答案”中学习到推理逻辑,那么如果我们给出“问题+推理步骤+答案”,告诉模型最后的结果是怎么一步步推导出来的,是不是模型就可以学会了呢?
从这个想法出发,2022年谷歌发布
原文链接:科普之旅 :大语言模型的思维链
联系作者
文章来源:大数据文摘
作者微信:BigDataDigest
作者简介:普及数据思维,传播数据文化
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...