跳至主要內容
符合直觉的RAG系统雏形

引言

在人工智能领域,大型语言模型(LLM)的崛起已经改变了我们与机器交流的方式。然而,尽管LLM在生成连贯和有说服力的文本方面表现出色,它们在处理特定事实和实时数据方面仍有局限。为了解决这一问题,检索增强生成(Retrieval-Augmented Generation,简称RAG)系统应运而生。本文将首先介绍目前RAG系统的架构,然后提出一种新的理念,即构建一个更加符合直觉的RAG系统,并探讨其优势及实现路径。


目前的RAG系统架构

目前的RAG系统通常遵循以下步骤:

  1. 数据准备:从大量文本中提取数据,进行文本分割,并通过向量化(embedding)将文本转换为模型可以理解的数值形式,最后将这些数据存入知识库。
  2. 应用阶段:用户提出问题,系统通过数据检索(召回)相关的信息,将这些信息注入到预设的提示(Prompt)中,然后LLM根据这些提示生成答案。

sennes大约 7 分钟人工智能RAG系统知识库用户参与动态更新