微信扫码
与创始人交个朋友
我要投稿
RAG是什么
基础的RAG任务包含以下模块,包括:数据读取处理,Index,检索,prompt拼接,大模型推理。如下图所示:
环境搭建
在搭建RAG系统中,我们将使用到以下包:
pip install langchain_community tiktoken langchain-openai langchainhub chromadb langchain
数据读取
我们使用 WebBaseLoader模块处理数据,它采用urllib从 Web URL 加载 HTML 并使用BeautifulSoup解析出文本。
import bs4from langchain_community.document_loaders import WebBaseLoaderloader = WebBaseLoader(web_paths=("https://data.eastmoney.com/report/zw_stock.jshtml?encodeUrl=35LdZWW1ERIe7AWLlyVZFHptPNDUH2qN4gEfzUIhYsc=", "https://data.eastmoney.com/report/zw_stock.jshtml?encodeUrl=OPw8X34UDWQq6g0u70KgHW6e5Ad8C5kc3TYV6t9BZsw=", "https://data.eastmoney.com/report/zw_stock.jshtml?encodeUrl=OPw8X34UDWQq6g0u70KgHbx8/qX6gdD4f6j3/4IEWIA="),bs_kwargs=dict(parse_only=bs4.SoupStrainer(class_=("detail-header", "newsContent")# 根据网页信息不同调整需要保留的字段)),)blog_docs = loader.load()# 数据读取
文本切块
我们将文档拆分为 512 个字符的块,块之间有 128个字符的重叠。重叠有助于降低当前文本与其相关的上下文分离的概率。我们使用 RecursiveCharacterTextSplitter ,它将使用常用分隔符(如换行符)递归拆分文档,直到每个块的大小合适。
# Split
from langchain.text_splitter import RecursiveCharacterTextSplitter
text_splitter = RecursiveCharacterTextSplitter.from_tiktoken_encoder(
chunk_size=512,
chunk_overlap=128)
# Make splits
splits = text_splitter.split_documents(blog_docs)
创建索引(Indexing)
这个模块首先创建一个向量模块向量模型可以随意选择,后面将介绍怎么选择向量模型,本篇采用了OpenAIEmbeddings();然后创建一个向量库,用于储存文本和文本向量:
# Indexfrom langchain_openai import OpenAIEmbeddingsfrom langchain_community.vectorstores import Chromavectorstore = Chroma.from_documents(documents=splits,embedding=OpenAIEmbeddings())
创建检索器
构建一个检索器,用于通过向量相似度检索片段,检索召回是整个系统的关键,决定了结果的上限:
retriever = vectorstore.as_retriever(search_type="similarity", search_kwargs={"k": 6}))
# 测试一下检索的片段
retrieved_docs = retriever.invoke("东方财富营收是多少")
len(retrieved_docs)
创建模型
在这个部分,我们将创建两个模块,一是PROMPT模板,这个是根据任务来确定,相同的模型一个好的prompt会得到更好的结果;二是大模型模块,这个是整个系统的中央大脑,决定着整个系统是否智能,例子中使用的gpt-3.5-turbo,使用自己的模型可以看这篇文章RAG:Langchain中使用自己的LLM大模型;
from langchain import hub
from langchain_openai import ChatOpenAI
prompt = hub.pull("rlm/rag-prompt")
# LLM
llm = ChatOpenAI(model_name="gpt-3.5-turbo", temperature=0.01)
RAG生成流程
前面已经构建好了索引、检索器、PROMPT模板和大模型,现在我们需要将整个过程组合起来:
from langchain_core.output_parsers import StrOutputParser
from langchain_core.runnables import RunnablePassthrough
# 文本片段组合
def format_docs(docs):
return "\n\n".join(doc.page_content for doc in docs)
rag_chain = (
{"context": retriever | format_docs, "question": RunnablePassthrough()}
| prompt
| llm
| StrOutputParser()
)
for chunk in rag_chain.stream("东方财富的营收是多少"):
print(chunk, end="", flush=True)
至此,我们完成了一个简单的RAG系统搭建,根据PROMPT的不同,我们可以针对我们的知识库做不同的任务,可以是问答、也可以是创作;通过知识库的辅助,我们的结果会更加的精确。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-11-24
RAGChecker:显著超越RAGAS,一个精细化评估和诊断 RAG 系统的创新框架
2024-11-23
FastRAG半结构化RAG实现思路及OpenAI O1-long COT蒸馏路线思考
2024-11-23
检索增强生成(RAG):解密AI如何融合记忆与搜索
2024-11-23
如何提高RAG系统准确率?12大常见痛点及巧妙解!
2024-11-23
RAG 2.0性能提升:优化索引与召回机制的策略与实践
2024-11-22
RAG技术在实际应用中的挑战与解决方案
2024-11-22
从普通RAG到RAPTOR,10个最新的RAG框架
2024-11-22
如何使用 RAG 提高 LLM 成绩
2024-07-18
2024-05-05
2024-07-09
2024-05-19
2024-07-09
2024-06-20
2024-07-07
2024-07-07
2024-07-08
2024-07-09
2024-11-06
2024-11-06
2024-11-05
2024-11-04
2024-10-27
2024-10-25
2024-10-21
2024-10-21