微信扫码
与创始人交个朋友
我要投稿
之前,我从 PDF 文档中实现了 RAG LLM 。检索增强生成 (RAG) 的概念是向大型语言模型 (LLM) 提供来自外部知识源(如 PDF 文档、CSV 文件等)的补充信息。这使它们能够生成更准确、更符合上下文的响应。但是,RAG 难以处理广泛的异构信息。RAG 利用向量数据库,该数据库基于不同实体(如单词或短语)的高维向量表示来测量它们之间的相似性或相关性。它忽略了实体的结构和关系。例如,在向量表示中,“员工”一词可能比“信息”与“雇主”更相关,因为它在向量空间中看起来更接近。
这可以通过引入知识图谱来实现,知识图谱是一种将数据组织为节点和边的数据结构,可增强检索信息的语境性。知识图谱由主语-谓语-宾语三元组组成,其中主语/宾语由节点表示,谓语/关系由边表示。例如,在这个三元组“雇主 — 提交 — 索赔”中,“提交”是谓语,表示“雇主”和“索赔”之间的关系。通过三元组表示,知识图谱数据库可以使复杂的数据搜索更加准确和高效。
安装依赖项
!pip 安装 -q pypdf
!pip 安装 -q python-dotenv
!pip 安装 -q pyvis
!pip 安装 -q transformers einops 加速 langchain bitsandbytes sentence_transformers langchain-community langchain-core
!pip 安装 -q llama-index
!pip 安装 -q llama-index-llms-huggingface
!pip 安装 -q llama-index-embeddings-langchain
!pip 安装 -q llama-index-embeddings-huggingface
LlamaIndex:一个简单、灵活的数据框架,用于将自定义数据源连接到 LLM
SimpleDirectoryReader:将数据从本地文件加载到 LlamaIndex 的最简单方法
KnowledgeGraphIndex:从非结构化文本自动构建知识图谱
SimpleGraphStore:简单图形存储索引
PyVis:一个用于可视化和构建图形网络的 Python 库
启用诊断日志记录
日志记录为代码执行提供了有价值的见解。
导入操作系统、日志记录、系统日志
记录.basicConfig(流=sys.stdout,级别=logging.INFO)
日志记录.getLogger()。addHandler(日志记录.StreamHandler(流=sys.stdout))
连接 Huggingface API
使用您的 Huggingface 推理 API 端点进行更新
从huggingface_hub导入登录
os.environ[ "HF_KEY" ] = "您的 Hugging Face 访问令牌在此处"
login(token=os.environ.get( 'HF_KEY' ),add_to_git_credential= True )
加载 PDF 文档
创新不列颠哥伦比亚省创新者技能计划
卑诗省艺术委员会申请协助
从llama_index.core导入SimpleDirectoryReader
文档 = SimpleDirectoryReader(input_dir= "/content/" , required_exts= ".pdf" ).load_data()
使用 HuggingFace 创建本地嵌入
HuggingFaceEmbeddings 是 LangChain 库中的一个类,它为 Hugging Face 的句子转换器模型提供了一个包装器,用于生成文本嵌入。它允许您使用 Hugging Face 上的任何句子嵌入模型来执行语义搜索、文档聚类和问答等任务。multi-qa-MiniLM-L6-cos-v1
本练习使用 HF 句子转换器模型。
从llama_index.embeddings.huggingface导入HuggingFaceEmbedding
EMBEDDING_MODEL_NAME = “sentence-transformers/multi-qa-MiniLM-L6-cos-v1”
embed_model = HuggingFaceEmbedding(model_name=EMBEDDING_MODEL_NAME,embed_batch_size= 10 )
从 ServiceContext 迁移到 Settings
LlamaIndex v0.10.0 中引入了一个新的全局 Settings 对象,旨在取代旧的 ServiceContext 配置。
新的 Settings 对象是一个全局设置,其参数是延迟实例化的。LLM 或嵌入模型等属性仅在底层模块实际需要时才会加载。
从llama_index.core导入设置
Settings.embed_model = embed_model
Settings.chunk_size = 256
Settings.chunk_overlap = 50
当文档被录入索引时,它们会被分割成具有一定重叠度的块。这称为“分块”。默认块大小为 1024,而默认块重叠度为 20。我们将块大小设置为 256,重叠度为 50,因为我们的文档长度较短。更多分块策略可在此处找到。
定义自定义提示
从llama_index.core导入PromptTemplate
system_prompt = """<|SYSTEM|># 您是人工智能管理助理。
您的目标是仅使用提供的上下文准确回答问题。
"""
# 这将包装 llama-index 内部的默认提示
query_wrapper_prompt = PromptTemplate( "<|USER|>{query_str><|ASSISTANT|>" )
LLM_MODEL_NAME = "meta-llama/Llama-2-7b-chat-hf"
设置法学硕士 (LLM)
导入torch
从llama_index.llms.huggingface导入HuggingFaceLLM
llm = HuggingFaceLLM(
context_window= 4096 ,
max_new_tokens= 512 ,
generate_kwargs={ "temperature" : 0.1 , "do_sample" : False },
system_prompt=system_prompt,
query_wrapper_prompt=query_wrapper_prompt,
tokenizer_name=LLM_MODEL_NAME,
model_name=LLM_MODEL_NAME,
device_map= "auto" ,
# 如果使用 CUDA 则取消注释此行以减少内存使用
model_kwargs={ "torch_dtype" : torch.float16 , "load_in_8bit" : True }
)
Settings.llm = llm
构建知识图谱索引
从llama_index.core.storage.storage_context导入StorageContext
从llama_index.core导入SimpleDirectoryReader、KnowledgeGraphIndex
从llama_index.core.graph_stores导入SimpleGraphStore
#设置存储上下文
graph_store = SimpleGraphStore()
storage_context = StorageContext.from_defaults(graph_store=graph_store)
index = KnowledgeGraphIndex.from_documents(documents=documents,
max_triplets_per_chunk= 3 ,
storage_context=storage_context,
embed_model=embed_model,
include_embeddings= True )
max_triplets_per_chunk :从文本的每个块中提取的三元组的最大数量。减少此数字可以加快处理速度,因为需要处理的三元组更少。
include_embeddings :控制是否在索引中包含嵌入。默认值为 False,因为生成嵌入可能需要大量计算。
可视化知识图谱
从pyvis.network导入Network
g = index.get_networkx_graph()
net = Network(notebook= True , cdn_resources= "in_line" , directed= True )
net.from_nx(g)
net.save_graph( "rag_graph.html" )
从IPython.display导入HTML,显示
HTML(filename= "rag_graph.html" )
询问
query_engine = index.as_query_engine(llm=llm, similarity_top_k=5)
done = False
但未完成:
print(“*” *30)
question = input(“输入您的问题:”)
response = query_engine.query(question)print
( response)
done = input(“结束聊天?(y/n):”)== “y”
传统的基于向量的 RAG 和 Graph RAG 在存储和显示数据的方式上有所不同。向量数据库适合基于相似性比较事物。它们使用数字来衡量事物之间的距离。另一方面,知识图谱用于显示复杂的连接以及事物之间的相互依赖关系。它们使用节点和边进行语义分析和高级推理。每个都有自己的用例。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-01-08
使用大语言模型从零构建知识图谱(上)
2025-01-06
搭建一个本地AI知识库需要用到哪些技术栈?
2025-01-04
吴恩达DeepLearning.AI课程系列 - 大模型检索增强生成(四):向量数据库中的检索优化
2025-01-04
实战Milvus 2.5:语义检索VS全文检索VS混合检索
2025-01-04
什么是元数据
2025-01-03
一位海外开发者的 OpenSPG KAG 实践分享
2025-01-03
Knowledge Graph Studio:让知识图谱构建更简单、更智能
2025-01-02
NebulaGraph + LLM 处理风控知识图谱的探索和实践
2025-01-02
2025-01-03
2024-07-17
2024-07-11
2024-08-13
2024-07-13
2024-06-24
2024-07-12
2024-06-10
2024-08-27
2025-01-06
2025-01-02
2024-12-16
2024-12-10
2024-12-04
2024-12-01
2024-11-30
2024-11-22