RAG与Long-Context之争—没必要争

AIGC动态7个月前发布 算法邦
19 0 0

RAG与Long-Context之争—没必要争

AIGC动态欢迎阅读

原标题:RAG与Long-Context之争—没必要争
关键字:模型,报告,腾讯,长度,文本
文章来源:算法邦
内容字数:5343字

内容摘要:


智猩猩与智东西将于4月18-19日在北京共同举办2024中国生成式AI大会,阿里巴巴通义千问大模型技术负责人周畅,「清华系Sora」生数科技CEO唐家渝,云天励飞“云天天书”大模型技术负责人余晓填,Open-Sora开发团队潞晨科技创始人尤洋,鸿博股份副总裁、英博数科CEO周韡韡,优必选研究院执行院长焦继超,科大讯飞人形机器人首席科学家季超,腾讯研究科学家张驰等20+位嘉宾已确认带来演讲和报告,欢迎报名。随着大模型可以支持的上下文(Context)长度越来越长,网上(好几个群里都在聊这个话题,也来聊几句)竟然出现了RAG与Long-Context之争,是真没必要。。。主要是两者不冲突,并不是非A即B、非B即A的关系。
个人观点:如果类比做检索系统的话,RAG应该算作粗排,而Long-Context可以算是精排。RAG的本质是通过用户问题从数据库/知识库中找到相关片段内容,再利用大模型查找或总结出答案。Long-Context的本质是将所有文本内容全部灌入到大模型中,用户问一个问题,再利用大模型查找或总结出答案。
本质区别在于外部知识如何给到大模型,以及给多少到大模型。
这也是大家的所“


原文链接:RAG与Long-Context之争—没必要争

联系作者

文章来源:算法邦
作者微信:allplusai
作者简介:智猩猩矩阵账号之一,连接AI新青年,讲解研究成果,分享系统思考。

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...