AIGC动态欢迎阅读
原标题:降本提效!阿里提出大模型集成新方法
文章来源:夕小瑶科技说
内容字数:5735字
内容摘要:夕小瑶科技说 原创作者 | 智商掉了一地、Python随着对大型语言模型(LLM)研究的不断深入,越来越多的工作不再局限于模型本身的性能提升,而是更加关注如何在任务中实现更高效、可靠的性能。即使是通用型的离线 LLM,也在各种领域和任务中具有不同的专业知识,因此,将多个 LLM 集成在一起,能够实现更为一致的性能提升。然而,尽管大多数 LLM 集成方法可以提高性能,但主要都是对模型输出进行奖励排名,这导致了大量计算开销。来自阿里的研究团队近期提出了一个集成 LLM 的降本增效新方法,具体来说,通过一种奖励引导的路径决策方法 ZOOTER,只需对在特定任务上表现最优越的模型进行推理,而非对所有模型都生成输出,如图 1 所示。为实现这一目标,引入了一个相对较小的路径决策组件,用于确定哪个模型在处理特定任务时具有最专业的知识。这样一来,整个集成的推理成本大幅降低,从而提高了计算效率。▲图1 LL…
联系作者
文章来源:夕小瑶科技说
作者微信:xixiaoyaoQAQ
作者简介:更快的AI前沿,更深的行业洞见。聚集25万AI应用开发者、算法工程师和研究人员。一线作者均来自清北、国外顶级AI实验室和互联网大厂,兼备媒体sense与技术深度。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...