AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


搭建RAG系统就这么简单:LangChain|RAG是什么?
发布日期:2024-07-18 04:38:09 浏览次数: 2031



RAG是什么

     "RAG"(Retrieval-Augmented Generation)是一种结合了检索(Retrieval)和生成(Generation)的人工智能技术,它在大模型中被需要的原因包括:
知识丰富性:大模型通过RAG可以访问大量的外部知识库,这有助于提高模型回答问题的准确性和深度。
实时信息获取:由于大模型通常是在大量数据上预训练的,它们可能不包含最新的信息。RAG可以通过检索最新的数据来弥补这一点。
减少偏见和错误:通过检索可靠的信息源,RAG有助于减少模型生成的偏见或错误信息。
提高泛化能力:RAG可以使模型在面对未见过的问题或领域时,通过检索相关信息来提高其泛化能力。
应对长尾问题:对于那些低频或非常规的问题,RAG可以通过检索来提供更加准确的答案,而不需要模型在训练数据中直接学习到。
    RAG是一种强大的技术,它通过结合检索和生成的优势,使得大模型能够提供更加准确、丰富和及时的信息。随着技术的发展,RAG在大模型中的应用将继续扩展,以满足不断增长的复杂性和多样性需求。

    基础的RAG任务包含以下模块,包括:数据读取处理,Index,检索,prompt拼接,大模型推理。如下图所示:

环境搭建

    在搭建RAG系统中,我们将使用到以下包: 

pip install langchain_community tiktoken langchain-openai langchainhub chromadb langchain

数据读取

    我们使用 WebBaseLoader模块处理数据,它采用urllib从 Web URL 加载 HTML 并使用BeautifulSoup解析出文本。

import bs4from langchain_community.document_loaders import WebBaseLoaderloader = WebBaseLoader(web_paths=("https://data.eastmoney.com/report/zw_stock.jshtml?encodeUrl=35LdZWW1ERIe7AWLlyVZFHptPNDUH2qN4gEfzUIhYsc=", "https://data.eastmoney.com/report/zw_stock.jshtml?encodeUrl=OPw8X34UDWQq6g0u70KgHW6e5Ad8C5kc3TYV6t9BZsw=", "https://data.eastmoney.com/report/zw_stock.jshtml?encodeUrl=OPw8X34UDWQq6g0u70KgHbx8/qX6gdD4f6j3/4IEWIA="),bs_kwargs=dict(parse_only=bs4.SoupStrainer(class_=("detail-header", "newsContent")# 根据网页信息不同调整需要保留的字段)),)blog_docs = loader.load()# 数据读取


文本切块

    我们将文档拆分为 512 个字符的块,块之间有 128个字符的重叠。重叠有助于降低当前文本与其相关的上下文分离的概率。我们使用 RecursiveCharacterTextSplitter ,它将使用常用分隔符(如换行符)递归拆分文档,直到每个块的大小合适。

# Splitfrom langchain.text_splitter import RecursiveCharacterTextSplittertext_splitter = RecursiveCharacterTextSplitter.from_tiktoken_encoder(chunk_size=512,chunk_overlap=128)
# Make splitssplits = text_splitter.split_documents(blog_docs)

创建索引(Indexing)

    这个模块首先创建一个向量模块向量模型可以随意选择,后面将介绍怎么选择向量模型,本篇采用了OpenAIEmbeddings()然后创建一个向量库,用于储存文本和文本向量:

# Indexfrom langchain_openai import OpenAIEmbeddingsfrom langchain_community.vectorstores import Chromavectorstore = Chroma.from_documents(documents=splits,embedding=OpenAIEmbeddings())

创建检索器

    构建一个检索器,用于通过向量相似度检索片段,检索召回是整个系统的关键,决定了结果的上限:

retriever = vectorstore.as_retriever(search_type="similarity", search_kwargs={"k": 6}))
# 测试一下检索的片段retrieved_docs = retriever.invoke("东方财富营收是多少")len(retrieved_docs)

创建模型

    在这个部分,我们将创建两个模块,一是PROMPT模板,这个是根据任务来确定,相同的模型一个好的prompt会得到更好的结果;二是大模型模块,这个是整个系统的中央大脑,决定着整个系统是否智能,例子中使用的gpt-3.5-turbo,使用自己的模型可以看这篇文章RAG:Langchain中使用自己的LLM大模型

from langchain import hubfrom langchain_openai import ChatOpenAI
prompt = hub.pull("rlm/rag-prompt")# LLMllm = ChatOpenAI(model_name="gpt-3.5-turbo", temperature=0.01)

RAG生成流程

    前面已经构建好了索引、检索器、PROMPT模板和大模型,现在我们需要将整个过程组合起来:

from langchain_core.output_parsers import StrOutputParserfrom langchain_core.runnables import RunnablePassthrough
# 文本片段组合def format_docs(docs):return "\n\n".join(doc.page_content for doc in docs)

rag_chain = ({"context": retriever | format_docs, "question": RunnablePassthrough()}| prompt| llm| StrOutputParser())
for chunk in rag_chain.stream("东方财富的营收是多少"):    print(chunk, end="", flush=True)

    至此,我们完成了一个简单的RAG系统搭建,根据PROMPT的不同,我们可以针对我们的知识库做不同的任务,可以是问答、也可以是创作;通过知识库的辅助,我们的结果会更加的精确。



53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询