谷歌 Vertex AI 推出新的 RAG 引擎

谷歌 Vertex AI 推出新 RAG 引擎,这是一项托管编排服务。它能简化大语言模型与外部数据源连接,支持从多源摄取数据等工作流,可通过 Python 绑定集成。

谷歌 Vertex AI 推出新的 RAG 引擎

原标题:谷歌 Vertex AI 推出新的 RAG 引擎
文章来源:AI前线
内容字数:3657字

Google Vertex AI RAG Engine:简化大语言模型与外部数据连接

本文总结了Google Vertex AI RAG Engine 的核心功能、使用方法以及应用场景。该引擎旨在简化大语言模型 (LLM) 与外部数据源的连接,从而提升模型的准确性和实用性。

  1. 核心功能与优势

    Vertex AI RAG Engine 是一款托管的编排服务,它能够帮助 LLM 保持数据更新,生成更贴合需求的答案,并有效减少幻觉。其优势在于平衡了易用性和强大的自定义功能,既可以使用 Vertex AI Search 的便捷功能,也可以通过底层 Vertex AI API 构建自定义 RAG 管道。

  2. 工作流程

    Vertex AI RAG Engine 的工作流程包含以下步骤:数据摄取、数据转换(例如将数据拆分为块)、嵌入处理(将文本转换为数值向量)、数据索引(构建优化后的语料库)、基于用户提示词检索相关信息,以及最终内容生成。该引擎简化了将这些步骤集成到解决方案中的过程。

  3. 使用方法

    最简单的集成方式是使用 Python 绑定(位于 google-cloud-aiplatform 包中)。用户可以轻松地从本地文件、Google Cloud Storage 或 Google Drive 中上传数据创建语料库,并使用提供的 API 创建检索工具,将其连接到 LLM 并创建查询端点。

    代码示例展示了如何使用 `upload_file` 方法上传文件创建语料库,以及如何创建检索工具并将其集成到 Gemini 模型中进行查询。

  4. 应用场景

    Google 认为 Vertex AI RAG Engine 特别适合以下场景:个性化投资建议与风险评估、加速药物发现与个性化治疗计划制定、增强尽职调查和合同审查等。

  5. RAG 技术

    检索增强生成 (RAG) 是一种“锚定” LLM 的技术,通过从外部数据源检索与特定任务相关的信息,并将这些信息与提示词一起提供给模型,从而生成更准确、更符合需求的答案。这与通过微调“锚定”模型的方法不同,微调是使用外部数据重新训练模型。

  6. 企业数据场景

    在企业数据场景中,“锚定”旨在通过安全地提供防火墙内的私有数据来克服 LLM 的局限性。

总而言之,Vertex AI RAG Engine 提供了一种高效便捷的方式来连接 LLM 与外部数据源,从而提升 LLM 的性能和实用性,使其更适合各种企业应用场景。


联系作者

文章来源:AI前线
作者微信:
作者简介:面向AI爱好者、开发者和科学家,提供大模型最新资讯、AI技术分享干货、一线业界实践案例,助你全面拥抱AIGC。

阅读原文
© 版权声明
问小白满血版DeepSeek免费不限次数使用

相关文章

问小白满血版DeepSeek免费不限次数使用

暂无评论

暂无评论...