详解!大语言模型中的检索增强生成RAG技术

AIGC动态8个月前发布 算法邦
75 0 0

详解!大语言模型中的检索增强生成RAG技术

AIGC动态欢迎阅读

原标题:详解!大语言模型中的检索增强生成RAG技术
关键字:上下文,向量,索引,答案,模型
文章来源:算法邦
内容字数:20781字

内容摘要:


直播预告 | 1月17日晚7点,「多模态大模型线上闭门会」正式开讲!阿里巴巴通义实验室 NLP 高级算法专家严明参与出品,携手刘兆洋、李彦玮、文束三位青年学者,共同探讨多模态大模型的发展与应用,欢迎报名。本文转载自公众号:深度学习自然语言处理,原作者:IVAN ILIN。01引言检索增强生成(Retrieval Augmented Generation,简称RAG)为大型语言模型(LLMs)提供了从某些数据源检索到的信息,以此作为生成答案的基础。简而言之,RAG是搜索+LLM提示的结合,即在有搜索算法找到的信息作为上下文的情况下,让模型回答提出的查询。查询和检索到的上下文都被注入到发送给LLM的提示中。
目前,RAG是基于LLM系统中最受欢迎的架构。许多产品几乎完全基于RAG构建,包括将网络搜索引擎与LLMs相结合的问答服务,以及数百种与数据聊天的应用程序。
即使是向量搜索领域也因这种热潮而兴起,尽管基于嵌入的搜索引擎自2019年就已使用faiss开发。像chroma、weavaite.io和pinecone这样的向量数据库初创公司建立在现有的开源搜索索引之上–主要是faiss和nm


原文链接:详解!大语言模型中的检索增强生成RAG技术

联系作者

文章来源:算法邦
作者微信:allplusai
作者简介:「算法邦」,隶属于智猩猩,关注大模型、生成式AI、计算机视觉三大领域的研究与开发,提供技术文章、讲座、在线研讨会。

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...