AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


使用 LlamaIndex 从 PDF 文档构建知识图谱 RAG
发布日期:2024-08-06 12:37:51 浏览次数: 1767


之前,我从 PDF 文档中实现了 RAG LLM 。检索增强生成 (RAG) 的概念是向大型语言模型 (LLM) 提供来自外部知识源(如 PDF 文档、CSV 文件等)的补充信息。这使它们能够生成更准确、更符合上下文的响应。但是,RAG 难以处理广泛的异构信息。RAG 利用向量数据库,该数据库基于不同实体(如单词或短语)的高维向量表示来测量它们之间的相似性或相关性。它忽略了实体的结构和关系。例如,在向量表示中,“员工”一词可能比“信息”与“雇主”更相关,因为它在向量空间中看起来更接近。

这可以通过引入知识图谱来实现,知识图谱是一种将数据组织为节点和边的数据结构,可增强检索信息的语境性。知识图谱由主语-谓语-宾语三元组组成,其中主语/宾语由节点表示,谓语/关系由边表示。例如,在这个三元组“雇主 — 提交 — 索赔”中,“提交”是谓语,表示“雇主”和“索赔”之间的关系。通过三元组表示,知识图谱数据库可以使复杂的数据搜索更加准确和高效。

执行

安装依赖项

!pip 安装 -q pypdf 
!pip 安装 -q python-dotenv
!pip 安装 -q pyvis
!pip 安装 -q transformers einops 加速 langchain bitsandbytes sentence_transformers langchain-community langchain-core
!pip 安装 -q llama-index
!pip 安装 -q llama-index-llms-huggingface
!pip 安装 -q llama-index-embeddings-langchain
!pip 安装 -q llama-index-embeddings-huggingface
  • LlamaIndex一个简单、灵活的数据框架,用于将自定义数据源连接到 LLM

  • SimpleDirectoryReader将数据从本地文件加载到 LlamaIndex 的最简单方法

  • KnowledgeGraphIndex从非结构化文本自动构建知识图谱

  • SimpleGraphStore简单图形存储索引

  • PyVis一个用于可视化和构建图形网络的 Python 库

启用诊断日志记录

日志记录为代码执行提供了有价值的见解。

导入操作系统、日志记录、系统日志

记录.basicConfig(流=sys.stdout,级别=logging.INFO)
日志记录.getLogger()。addHandler(日志记录.StreamHandler(流=sys.stdout))

连接 Huggingface API

使用您的 Huggingface 推理 API 端点进行更新

huggingface_hub导入登录

os.environ[ "HF_KEY" ] = "您的 Hugging Face 访问令牌在此处"
login(token=os.environ.get( 'HF_KEY' ),add_to_git_credential= True )

加载 PDF 文档

  • 创新不列颠哥伦比亚省创新者技能计划

  • 卑诗省艺术委员会申请协助

llama_index.core导入SimpleDirectoryReader

文档 = SimpleDirectoryReader(input_dir= "/content/" , required_exts= ".pdf" ).load_data()

构建知识图谱索引

使用 HuggingFace 创建本地嵌入

HuggingFaceEmbeddings 是 LangChain 库中的一个类,它为 Hugging Face 的句子转换器模型提供了一个包装器,用于生成文本嵌入。它允许您使用 Hugging Face 上的任何句子嵌入模型来执行语义搜索、文档聚类和问答等任务。multi-qa-MiniLM-L6-cos-v1本练习使用 HF 句子转换器模型。

llama_index.embeddings.huggingface导入HuggingFaceEmbedding 

EMBEDDING_MODEL_NAME = “sentence-transformers/multi-qa-MiniLM-L6-cos-v1”

embed_model = HuggingFaceEmbedding(model_name=EMBEDDING_MODEL_NAME,embed_batch_size= 10 )

从 ServiceContext 迁移到 Settings

LlamaIndex v0.10.0 中引入了一个新的全局 Settings 对象,旨在取代旧的 ServiceContext 配置。

新的 Settings 对象是一个全局设置,其参数是延迟实例化的。LLM 或嵌入模型等属性仅在底层模块实际需要时才会加载。

llama_index.core导入设置

Settings.embed_model = embed_model
Settings.chunk_size = 256
Settings.chunk_overlap = 50

当文档被录入索引时,它们会被分割成具有一定重叠度的块。这称为“分块”。默认块大小为 1024,而默认块重叠度为 20。我们将块大小设置为 256,重叠度为 50,因为我们的文档长度较短。更多分块策略可在此处找到。

定义自定义提示

llama_index.core导入PromptTemplate 

system_prompt = """<|SYSTEM|># 您是人工智能管理助理。
您的目标是仅使用提供的上下文准确回答问题。
"""


# 这将包装 llama-index 内部的默认提示
query_wrapper_prompt = PromptTemplate( "<|USER|>{query_str><|ASSISTANT|>" )

LLM_MODEL_NAME = "meta-llama/Llama-2-7b-chat-hf"

设置法学硕士 (LLM)

导入torch
llama_index.llms.huggingface导入HuggingFaceLLM

llm = HuggingFaceLLM(
context_window= 4096 ,
max_new_tokens= 512 ,
generate_kwargs={ "temperature" : 0.1 , "do_sample" : False },
system_prompt=system_prompt,
query_wrapper_prompt=query_wrapper_prompt,
tokenizer_name=LLM_MODEL_NAME,
model_name=LLM_MODEL_NAME,
device_map= "auto" ,
# 如果使用 CUDA 则取消注释此行以减少内存使用
model_kwargs={ "torch_dtype" : torch.float16 , "load_in_8bit" : True }
)

Settings.llm = llm

构建知识图谱索引

llama_index.core.storage.storage_context导入StorageContext
llama_index.core导入SimpleDirectoryReader、KnowledgeGraphIndex
llama_index.core.graph_stores导入SimpleGraphStore

#设置存储上下文
graph_store = SimpleGraphStore()
storage_context = StorageContext.from_defaults(graph_store=graph_store)

index = KnowledgeGraphIndex.from_documents(documents=documents,
max_triplets_per_chunk= 3 ,
storage_context=storage_context,
embed_model=embed_model,
include_embeddings= True )
  • max_triplets_per_chunk :从文本的每个块中提取的三元组的最大数量。减少此数字可以加快处理速度,因为需要处理的三元组更少。

  • include_embeddings :控制是否在索引中包含嵌入。默认值为 False,因为生成嵌入可能需要大量计算。

可视化知识图谱

pyvis.network导入Network 
g = index.get_networkx_graph()
net = Network(notebook= True , cdn_resources= "in_line" , directed= True )
net.from_nx(g)
net.save_graph( "rag_graph.html" )
IPython.display导入HTML,显示
HTML(filename= "rag_graph.html" )

询问

query_engine = index.as_query_engine(llm=llm, similarity_top_k=5)

done = False
但未完成
print“*” *30)
question = input(“输入您的问题:”
response = query_engine.query(question)print
response)
done = input(“结束聊天?(y/n):”)== “y”

概括

传统的基于向量的 RAG 和 Graph RAG 在存储和显示数据的方式上有所不同。向量数据库适合基于相似性比较事物。它们使用数字来衡量事物之间的距离。另一方面,知识图谱用于显示复杂的连接以及事物之间的相互依赖关系。它们使用节点和边进行语义分析和高级推理。每个都有自己的用例。



53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询