AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


WeKnow-RAG:结合网络搜索和知识图谱的自适应检索增强生成方法
发布日期:2024-08-19 12:51:10 浏览次数: 1685



"WeKnow-RAG: An Adaptive Approach for Retrieval-Augmented Generation Integrating Web Search and Knowledge Graphs"的论文提出了一种新颖的检索增强生成(RAG)方法,结合了网络搜索和知识图谱。

WeKnow-RAG:结合网络搜索和知识图谱的自适应检索增强生成方法

1. 引言

大型语言模型(LLMs)在近年来取得了巨大的进展,展现出了成为通用人工智能(AGI)重要途径的潜力。然而,LLMs也面临着一些挑战,最突出的是它们容易产生事实不正确的信息,甚至生成"幻觉"内容,这严重影响了它们在实际场景中的可靠性。

为了解决这些问题,研究人员提出了检索增强生成(RAG)方法。RAG通过结合外部数据库和信息检索机制来增强LLMs的能力。本文提出的WeKnow-RAG方法更进一步,将网络搜索和知识图谱整合到RAG系统中,旨在提高LLM响应的准确性和可靠性。

2. WeKnow-RAG方法概述

WeKnow-RAG的核心思想是结合知识图谱的结构化表示和密集向量检索的灵活性。该方法主要包含以下几个关键组件:

  1. 基于网络的RAG
  2. 基于知识图谱的RAG
  3. 集成方法

让我们逐一深入了解这些组件。

2.1 基于网络的RAG

基于网络的RAG是WeKnow-RAG的重要组成部分,它包括以下几个步骤:

2.1.1 网页内容解析

首先,我们需要对网页内容进行解析,以便后续处理。这里使用了BeautifulSoup库来解析HTML源代码:

from bs4 import BeautifulSoup

def parse_html(html_content):
    soup = BeautifulSoup(html_content, 'html.parser')
    # 提取需要的内容
    text = soup.get_text()
    return text

2.1.2 分块

分块是将文档分割成多个段落的过程。WeKnow-RAG采用了基于token的分块方法。以下是一个简单的分块示例:

def chunk_text(text, chunk_size=500):
    tokens = text.split()
    chunks = []
    for i in range(0, len(tokens), chunk_size):
        chunk = ' '.join(tokens[i:i+chunk_size])
        chunks.append(chunk)
    return chunks

2.1.3 多阶段检索

WeKnow-RAG采用了多阶段检索方法,包括稀疏检索和密集检索:

  1. 第一阶段:使用BM25算法进行稀疏检索
  2. 第二阶段:结合稀疏检索(BM25)和密集检索(embedding similarity)

BM25算法的评分函数如下:

Score(query, C_i) = ∑(q_j ∈ query) IDF(q_j) · (f(q_j, C_i) · (k_1 + 1)) / (f(q_j, C_i) + k_1 · (1 - b + b · |C_i| / avg_dl))

其中:

  • q_j 是查询中的一个词
  • IDF(q_j) 是词 q_j 的逆文档频率
  • f(q_j, C_i) 是词 q_j 在文档 C_i 中的词频
  • k_1 和 b 是参数(通常 k_1 = 1.5, b = 0.75)
  • |C_i| 是文档 C_i 的长度
  • avg_dl 是语料库中的平均文档长度

2.1.4 答案生成与自评估

为了减少幻觉,WeKnow-RAG引入了一个自评估机制。LLM会对生成的答案进行置信度评估:

def generate_answer_with_confidence(query, context):
    prompt = f"""
    Question: {query}
    Context: {context}
    
    Answer the question and provide your confidence level (high, medium, low).
    """

    response = llm.generate(prompt)
    # 解析响应,提取答案和置信度
    return answer, confidence

2.2 基于知识图谱的RAG

知识图谱(KG)在WeKnow-RAG中扮演着重要角色,主要包括以下步骤:

2.2.1 领域分类

首先,系统会对问题进行领域分类:

def classify_domain(query):
    prompt = f"Classify the domain of this query: {query}"
    domain = llm.generate(prompt)
    return domain

2.2.2 查询生成

根据领域分类结果,系统会生成相应的知识图谱查询:

def generate_kg_query(query, domain):
    if domain == "music":
        prompt = f"""
        Generate a KG query for this music-related question: {query}
        Available functions:
        - get_artist_info(artist_name, info_type)
        - get_song_info(song_name, info_type)
        ...
        """

    # 其他领域的处理逻辑
    kg_query = llm.generate(prompt)
    return kg_query

2.2.3 答案检索与后处理

系统通过API调用知识图谱获取候选答案,然后进行后处理:

def retrieve_and_postprocess(kg_query):
    raw_result = kg_api.call(kg_query)
    processed_result = postprocess(raw_result)
    return processed_result

2.3 集成方法

WeKnow-RAG采用了一种自适应框架,根据不同领域的特点和信息变化速度,智能地结合基于KG的RAG方法和基于Web的RAG方法:

def adaptive_rag(query):
    domain = classify_domain(query)
    if domain in ["encyclopedia""open_domain"]:
        return kg_based_rag(query)
    elif domain in ["music""movies"]:
        kg_result = kg_based_rag(query)
        web_result = web_based_rag(query)
        return integrate_results(kg_result, web_result)
    else:
        return web_based_rag(query)

3. 实验结果

WeKnow-RAG在CRAG(Comprehensive RAG Benchmark)数据集上进行了评估。以下是一些关键的实验结果:

模型版本准确率幻觉率缺失率得分
版本10.3930.3190.2880.0743
版本20.4090.3160.2760.0929

从表格中我们可以看到,WeKnow-RAG的版本2相比版本1有了显著的提升,特别是在准确率和得分方面。

4. 结论与未来展望

WeKnow-RAG通过结合网络搜索和知识图谱,提出了一种新颖的检索增强生成方法。该方法在提高LLM响应的准确性和可靠性方面取得了显著成效。主要贡献包括:

  1. 开发了一个适应不同查询类型和领域的特定领域KG增强RAG系统
  2. 引入了结合稀疏检索和密集检索的多阶段网页检索方法
  3. 实现了LLM的自评估机制,减少了幻觉现象
  4. 提出了一个自适应框架,智能地结合基于KG和基于Web的RAG方法

未来的研究方向可能包括:

  • 进一步优化知识图谱的构建和更新策略
  • 探索更高效的多模态检索方法
  • 研究如何将WeKnow-RAG应用于更广泛的领域和任务



53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询