鲲鹏社区首页
中文
注册
我要评分
文档获取效率
文档正确性
内容完整性
文档易理解
在线提单
论坛求助

RAG概述

近年来,大模型技术经历了从通用化到垂直化、从单一模态到多模态融合的快速发展。随着GPT-4、DeepSeek等千亿级参数模型的涌现,人工智能在文本生成、逻辑推理等任务中展现出接近人类水平的潜力。但传统大模型的"幻觉"问题、知识更新滞后、企业数据的隐私安全等局限性逐渐显现:

  • 知识过时:目前的大模型训练数据固定,是某个时间节点之前的数据,时间节点之后的数据没有参与训练,大模型不具备最新的信息。
  • 知识不完整:大模型自身的知识完全源于它的训练数据,而现有的主流大模型的训练集基本都是构建于网络公开的数据,非公开的或离线的数据是无法获取到的,从而导致生成的答案不完整。
  • 幻觉问题:如果AI模型所生成的输出没有任何已知事实作为依据,则LLM会生成与事实不符的文本,生成的内容看似合理但实际上错误、虚假或与现实不符的内容,而这种幻觉问题的区分是比较困难的,因为它要求使用者自身具备相应领域的知识。
  • 数据安全性:对于企业来说,数据安全至关重要,将自身的私域数据上传第三方平台进行训练还有泄漏风险,这也导致完全依赖通用大模型自身能力的应用方案不得不在数据安全和效果方面进行取舍。

为了解决上述问题,RAG(Retrieval-Augmented Generation,检索增强生成)解决方案就孕育而生,是一种结合检索和生成技术的模型,旨在通过引用知识库的信息来生成高质量、准确且具有可解释性的答案或内容。利用知识库进行信息检索,为LLM生成过程提供丰富的背景知识和上下文信息,从而提高生成结果的准确性和多样性。知识库主要是充分利用用户的私有数据进行构建,信息专业性更强,准确度更高;并且知识库数据可以进行更新,从而解决知识局限性和幻觉的问题。

RAG的主要流程:

  1. 知识库准备:将大量的领域知识和资料上传至向量数据库,存储为向量数据。
  2. 问题输入:将输入的文本问题Embed为带有向量的提问。
  3. 向量检索:向量化提问进入提前准备好的向量数据库中,通过向量检索引擎计算向量相似度,匹配出Top-K条语义最相关的文档。
  4. Prompt增强:将检索到的文档和用户提问一起整合为Prompt输入给大模型。
  5. 结果返回:大模型从Prompt获取上下文,生成更精准的回答。

RAG的典型架构:

  • 大模型:RAG系统核心,负责根据Prompt生成回答。
  • Prompt:给大模型的提示词或指令。
  • 向量数据库:向量数据专用的存储系统,用于存放Embedding及其相应的文本数据,确保快速高效的检索。
  • 向量搜索引擎(Retriever):通过比较向量相似性来获取相关文档。
  • 文档加载器(Loader):导入和读取文档。
  • 文本切分器(Splitter):将原始文档切分为多个片段,使其更易于管理和高效地检索。
  • Embedder:在存储或检索数据之前,负责将文本信息转换为向量表示。