微信扫码
与创始人交个朋友
我要投稿
pip3 install llama-index EbookLib html2text llama-index-embeddings-huggingface llama-index-llms-ollama -i https://mirrors.cloud.tencent.com/pypi/simple
基于LlamaIndex 的 RAG(检索增强生成)包括以下几个阶段:
加载:在这个阶段,告诉 LlamaIndex 你的数据存放在哪里以及如何加载它;
索引:在这个阶段,索引已加载的数据以便于查询,例如使用向量嵌入;
查询:在这个阶段,配置一个大语言模型(LLM)作为索引数据的查询接口。
LlamaIndex 是专门为 RAG 设计的。这一点从其 SimpleDirectoryReader 构造中就可以立刻看出来,它暖心地支持多种多样的文件类型,b比如.epub或者pdf等格式。这里使用的数据是“成武县2023年国民经济和社会发展统计公报.pdf”。
from llama_index.core import SimpleDirectoryReader
loader = SimpleDirectoryReader(
input_dir="./test_datas/",
recursive=True,
required_exts=[".pdf"],
)
documents = loader.load_data()
通过SimpleDirectoryReader.load_data()
将电子书转换为一组文档,以便 LlamaIndex 使用。
需要注意的一点是,这些文档在这个阶段还没有被分块,分块操作将在后续的索引阶段进行。
加载数据之后,接下来就是对其进行索引。这将使RAG pipeline 能够查找与查询相关的上下文信息,以传递给LLM,从而增强生成的响应。这也是进行文档分块的阶段。
VectorStoreIndex 是 LlamaIndex 中“默认”的索引入口。默认情况下,VectorStoreIndex 使用一个简单的内存字典来存储索引,但 LlamaIndex 还支持各种各样的向量存储解决方案,方便开发者在扩展时使用。
LlamaIndex 使用默认分块大小为 1024,分块重叠为 20。有关更多详细信息,请参见 LlamaIndex 文档。
如前所述,这里将使用 BAAI/bge-base-zh-v1.5
来生成嵌入。默认情况下,LlamaIndex 使用 OpenAI(特别是 gpt-3.5-turbo),但考虑到这里的中文场景,而且希望实现一个轻量级、可在本地运行的端到端解决方案,这里并不会使用这个默认的方案。
LlamaIndex 支持通过方便的 HuggingFaceEmbedding 类从 Hugging Face 获取嵌入模型,因此将在这里使用它。
from llama_index.embeddings.huggingface import HuggingFaceEmbedding
embedding_model = HuggingFaceEmbedding(model_name="/model_zoo/embedding/BAAI/bge-base-zh-v1.5/")
# 把它作为嵌入模型传递给 VectorStoreIndex,以取代 OpenAI 的默认嵌入方案。
from llama_index.core import VectorStoreIndex
index = VectorStoreIndex.from_documents(
documents,
embed_model=embedding_model,
)
现在来完成 RAG 的最后一部分:进行查询。在这个示例中,将使用 Qwen1.5 和 Qwen2.5 进行效果的比对。
首先,让启动 Ollama 服务器。在一个单独的终端中运行:ollama serve
。然后拉取目标模型,如:
# qwen1.5-4B:latest
ollama run qwen2.5:3b
现在,让我们将 Qwen 连接到 LlamaIndex,并将其用作我们查询引擎的基础。
from llama_index.llms.ollama import Ollama
# qwen1.5-4B:latest
# qwen2.5:1.5b
# qwen2.5:7b
llama = Ollama(
model="qwen1.5-4B:latest",
request_timeout=40.0,
)
query_engine = index.as_query_engine(llm=llama)
print(query_engine.query("有多少公务员,一共发了多少退休金?公务员每个月的退休金是多少?"))
各个模型RAG生成结果:
# "qwen:0.5b" -> 公务员每个月的退休金是1869.90元。
# qwen:1.8b -> 效果比较差
# "qwen1.5-4B:latest" -》成武县2023年机关事业单位退休人员8778人,发放养老待遇7.85亿元。
# qwen2.5:0.5b -> 效果差
# "qwen2.5:1.5b" -》根据提供的信息,成武县2023年机关事业单位退休人员的养老金发放总额为7.85亿元。
# qwen2.5:3b -》效果还行
# qwen2.5:7b -》根据提供的信息,2023年机关事业单位退休人员发放的养老待遇为7.85亿元。但是具体每位公务员每个月的退休金是多少没有明确说明。因此无法直接得出公务员每个月的具体退休金额。为了得到准确答案,需要进一步查询具体的退休金标准或总额分配情况。
可以看出,对于Qwen2.5,在3B以上效果才不错,对于Qwen1.5,则需要4B才可以有不错的效果。
本文主要介绍如何使用LlamaIndex实现RAG系统,并以文档问答为实例,介绍如何使用LlamaIndex实现RAG。借助LlamaIndex实现的RAG系统,可以进一步实现本地化的知识库系统的构建。#RAG #LlamaIndex #问答系统 #知识库问答 #RAG实战 #AI入门 #搜索系统
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-11-23
FastRAG半结构化RAG实现思路及OpenAI O1-long COT蒸馏路线思考
2024-11-23
检索增强生成(RAG):解密AI如何融合记忆与搜索
2024-11-23
如何提高RAG系统准确率?12大常见痛点及巧妙解!
2024-11-23
RAG 2.0性能提升:优化索引与召回机制的策略与实践
2024-11-22
RAG技术在实际应用中的挑战与解决方案
2024-11-22
从普通RAG到RAPTOR,10个最新的RAG框架
2024-11-22
如何使用 RAG 提高 LLM 成绩
2024-11-21
提升RAG性能的全攻略:优化检索增强生成系统的策略大揭秘 | 深度好文
2024-07-18
2024-05-05
2024-07-09
2024-05-19
2024-07-09
2024-06-20
2024-07-07
2024-07-07
2024-07-08
2024-07-09
2024-11-06
2024-11-06
2024-11-05
2024-11-04
2024-10-27
2024-10-25
2024-10-21
2024-10-21