最近学强化的过程中,总是遇到“拒绝采样”这个概念,我尝试科普一下,争取用最大白话的方式让每个感兴趣的同学都理解其中思想。
原标题:LLM实践系列-细聊LLM的拒绝采样
文章来源:智猩猩GenAI
内容字数:4727字
拒绝采样的概念及其在生成式AI中的应用
随着生成式AI的快速发展,拒绝采样这一概念逐渐引起了大家的关注。本文将通过简单易懂的语言对拒绝采样进行阐释,并探讨其在大型语言模型(LLM)中的应用。
1. 拒绝采样的基本原理
拒绝采样最早源于统计学,是一种从复杂目标概率分布中生成随机样本的方法。当直接从目标分布中采样困难时,采用一个易于采样的提议分布,并根据某种接受概率来决定是否接受样本。其过程主要包括:选择提议分布、确定缩放常数、生成样本并进行接受检测。
2. 拒绝采样的关键要素
拒绝采样包括几个重要要素:首先,提议分布应该易于采样并覆盖目标分布;其次,需找到一个缩放常数,以确保提议分布包裹住目标分布;最后,需要有方法来判断样本是否符合目标分布。
3. LLM中的拒绝采样
在LLM中,拒绝采样的过程较为简单。模型针对给定的提示生成多个候选响应,然后使用奖励模型(reward_model)筛选出高质量的响应。这一过程可以被视为对提议分布的反复采样,最终得到符合最佳语言模型的样本。
4. 统计学与LLM的映射关系
统计学中的拒绝采样和LLM的拒绝采样之间有相似之处。两者均需要易于采样的提议分布和有效的接受标准。然而,LLM面临的挑战在于如何确保反复采样能够覆盖最佳语言模型的表达方式。
5. RLHF与拒绝采样的结合
在强化学习与人类反馈(RLHF)的框架下,优化目标并非是单纯获得最佳语言模型,而是使奖励模型与参考模型共同认可的模型。因此,虽然LLM进行多次采样,但仍需通过迭代来接近最优目标分布。
总结
拒绝采样作为一种有效的采样方法,虽然没有应用具体的策略优化算法,但其核心思想与RLHF相通。通过对原始模型的反复采样,结合奖励模型的反馈,最终能够达到更接近最佳语言模型的效果。
联系作者
文章来源:智猩猩GenAI
作者微信:
作者简介:智猩猩旗下矩阵账号之一,聚焦大模型开启的通用人工智能浪潮。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...