AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


实时知识库:如何用 Elasticsearch 实现 RAG
发布日期:2024-06-15 07:10:41 浏览次数: 2320 来源:智能体AI


在当前的科技领域,大型语言模型(LLM)如GPT-4已在众多应用场景中表现出色。然而,这些模型仍然存在一些固有的局限性。本文将探讨这些局限性,并介绍如何通过构建检索增强的生成模型(RAG)系统来弥补这些不足。

一、LLM的局限性及解决方案

LLM 固有的局限性:

  1. LLM 的知识不是实时 LLM 是在特定时间点前的海量数据上训练的,因此它们的知识具有时效性。这意味着在面对最新的事件或快速变化的信息时,LLM 可能无法提供准确的回答。
  2. LLM 可能不知道你私有的领域/业务知识 LLM 的训练数据通常来自于公开的互联网数据,对于一些专业性强或私有的领域知识,LLM 可能了解有限。例如,在特定的行业标准或企业内部数据方面,LLM 可能无法给出有针对性的答案。
解决方案:搭建一套完整的RAG系统
  1. 搭建一套完整的 RAG 系统需要哪些模块?
  • 文档加载与切割模块:将文档加载到系统中,并按一定条件切割成片段。
  • 检索引擎模块:将切割的文本片段灌入检索引擎,通过关键字进行检索。
  • LLM 接口封装模块:封装检索接口,确保能够与 LLM 进行无缝对接。
  • 调用流程模块:构建完整的调用流程,从查询到检索,再到生成回复。
  • 如何用你的垂域数据补充 LLM 的能力?
    • 数据收集与处理:收集企业内部的私有数据或行业特有的数据,并进行清洗和处理。
    • 数据索引与检索:将处理后的数据索引到检索引擎中,确保可以快速检索到相关信息。
    • 动态更新:定期更新数据,确保检索引擎中的信息始终是最新的,从而补充 LLM 的静态知识库。

    二、什么是检索增强的生成模型(RAG)

    检索增强生成(RAG),顾名思义,通过检索的方法来增强生成模型的能力。简单来说,可以将这个过程类比为开卷考试:让 LLM 先翻阅相关资料,再根据检索到的信息回答问题。
    这种方法能够显著提高 LLM 的回答准确性和专业性,尤其是在涉及到最新信息或特定领域知识时。

    三、RAG 系统的基本搭建流程

    1. 文档的加载与切割 首先,将相关文档加载到系统中。为了提高检索效率,需要将文档按一定条件切割成小片段。例如,可以按段落、句子甚至词组进行切割,以便更精准地匹配查询内容。
    2. 检索引擎 将切割后的文本片段灌入检索引擎,如Elasticsearch,通过关键字进行检索。检索引擎会根据查询内容返回最相关的片段。
    3. LLM 接口封装 封装检索接口,使其能够与 LLM 无缝对接。当用户提出查询时,首先通过检索引擎找到相关信息,再将这些信息传递给 LLM 进行生成。
    4. 构建调用流程 完整的调用流程为:用户提出查询(Query) -> 检索引擎进行检索(检索) -> 将检索结果作为提示词(Prompt)传递给 LLM -> LLM 根据提示词生成回复(回复)。


    四、Elasticsearch(简称ES)实现RAG

    Elasticsearch 是一个分布式、RESTful 风格的搜索和数据分析引擎,非常适合用于实现 RAG 系统。以下是使用 Elasticsearch 实现 RAG 的基本步骤:
    1. 安装和配置 Elasticsearch 首先,需要在服务器上安装并配置 Elasticsearch,使其能够处理大量的文本数据和高并发的搜索请求。
    2. 文档加载与索引 将切割后的文本片段加载到 Elasticsearch 中,并创建索引。这一步骤可以使用 Elasticsearch 提供的 API 或者通过批量导入工具实现。
    3. 搜索查询 使用 Elasticsearch 的强大搜索功能,通过关键字或自然语言查询,快速找到最相关的文本片段。
    4. 与 LLM 交互 将 Elasticsearch 返回的结果作为提示词传递给 LLM,并生成最终的回答。这样,LLM 在生成回答时不仅依赖自身的静态知识库,还可以利用最新的、特定领域的知识。
    五、实现案例
    # 加载必要的库和环境变量import openaiimport osfrom math import *from icecream import icimport jsonfrom pdfminer.high_level import extract_pagesfrom pdfminer.layout import LTTextContainerfrom elasticsearch7 import Elasticsearch, helpersfrom nltk.stem import PorterStemmerfrom nltk.tokenize import word_tokenizefrom nltk.corpus import stopwordsimport nltkimport reimport warnings
    # 加载 .env 文件from dotenv import load_dotenv, find_dotenv_ = load_dotenv(find_dotenv())
    # 屏蔽一些警告warnings.simplefilter("ignore")
    # 初始化 OpenAI 和 Elasticsearch 配置openai.api_key = os.getenv('OPENAI_API_KEY')openai.api_base = os.getenv('OPENAI_API_URL')model = os.getenv('MODEL')ES_HOSTS = os.getenv('ES_HOSTS')ES_USERNAME = os.getenv('ES_USERNAME')ES_PASSWORD = os.getenv('ES_PASSWORD')
    def extract_text_from_pdf(filename,page_numbers=None,min_line_length=1):'''从 PDF 文件中提取文本。
    :param filename: PDF 文件名:param page_numbers: 需要提取文本的页码列表,可选:param min_line_length: 最小行长度,用于过滤短行,可选:return: 提取的文本段落列表''''''从 PDF 文件中(按指定页码)提取文字'''paragraphs = []buffer = ''full_text = ''# 提取全部文本for i, page_layout in enumerate(extract_pages(filename)):# 如果指定了页码范围,跳过范围外的页if page_numbers is not None and i not in page_numbers:continuefor element in page_layout:if isinstance(element, LTTextContainer):full_text += element.get_text() + '\n'# 按空行分隔,将文本重新组织成段落lines = full_text.split('\n')for text in lines:if len(text) >= min_line_length:buffer += (' '+text) if not text.endswith('-') else text.strip('-')elif buffer: paragraphs.append(buffer)buffer = ''if buffer:paragraphs.append(buffer)return paragraphs
    def fenchi_init():'''初始化自然语言处理工具,下载必要的资源。'''nltk.download('punkt') # 英文切词、词根、切句等方法nltk.download('stopwords') # 英文停用词库
    def to_keywords(input_string):'''将输入字符串转换为关键词列表。
    :param input_string: 输入的字符串:return: 关键词字符串''''''(英文)文本只保留关键字'''# 使用正则表达式替换所有非字母数字的字符为空格no_symbols = re.sub(r'[^a-zA-Z0-9\s]', ' ', input_string)word_tokens = word_tokenize(no_symbols)stop_words = set(stopwords.words('english'))ps = PorterStemmer()# 去停用词,取词根filtered_sentence = [ps.stem(w) for w in word_tokens if not w.lower() in stop_words]return ' '.join(filtered_sentence)
    def init_index(paragraphs):'''初始化 Elasticsearch 索引,将文本段落索引到 Elasticsearch 中。
    :param paragraphs: 文本段落列表'''# 1. 创建Elasticsearch连接es = Elasticsearch(hosts=[ ES_HOSTS ],# 服务地址与端口http_auth=(ES_USERNAME, ES_PASSWORD), # 用户名,密码)
    # 2. 定义索引名称index_name = "string_index"
    # 3. 如果索引已存在,删除它(仅供演示,实际应用时不需要这步)if es.indices.exists(index=index_name):es.indices.delete(index=index_name)
    # 4. 创建索引es.indices.create(index=index_name)
    # 5. 灌库指令actions = [{"_index": index_name,"_source": {"keywords": to_keywords(para),"text": para}}for para in paragraphs]
    # 6. 文本灌库helpers.bulk(es, actions)
    def search(query_string, top_n=3):'''在 Elasticsearch 中搜索匹配的文本段落。
    :param query_string: 搜索查询字符串:param top_n: 返回的匹配段落数量:return: 匹配的文本段落列表'''# 1. 创建Elasticsearch连接es = Elasticsearch(hosts=[ ES_HOSTS ],# 服务地址与端口http_auth=(ES_USERNAME, ES_PASSWORD), # 用户名,密码)# ES 的查询语言search_query = {"match": {"keywords": to_keywords(query_string)}}index_name = "string_index"res = es.search(index=index_name, query=search_query, size=top_n)return [hit["_source"]["text"] for hit in res["hits"]["hits"]]
    def get_completion(prompt, model=model):'''使用 OpenAI 完成聊天对话。
    :param prompt: 聊天的提示信息:param model: 使用的 OpenAI 模型:return: 聊天的回复'''messages = [{"role": "user", "content": prompt}]
    response = openai.ChatCompletion.create(model=model,messages=messages,temperature=0,# 模型输出的随机性,0 表示随机性最小)
    return response.choices[0].message["content"]
    def build_prompt(prompt_template, **kwargs):'''根据模板和参数构建提示信息。
    :param prompt_template: 提示信息的模板字符串:param kwargs: 用于替换模板中的变量的键值对:return: 构建后的提示信息''''''将 Prompt 模板赋值'''prompt = prompt_templatefor k, v in kwargs.items():if isinstance(v,str):val = velif isinstance(v, list) and all(isinstance(elem, str) for elem in v):val = '\n'.join(v)else:val = str(v)prompt = prompt.replace(f"__{k.upper()}__",val)return prompt
    def test_promopt():'''测试构建和使用提示信息的函数。'''prompt_template = """你是一个问答机器人。你的任务是根据下述给定的已知信息回答用户问题。确保你的回复完全依据下述已知信息。不要编造答案。如果下述已知信息不足以回答用户的问题,请直接回复"我无法回答您的问题"。
    已知信息:__INFO__
    用户问:__QUERY__
    请用中文回答用户问题。"""user_query="how many parameters does llama 2 have?"
    # 1. 检索search_results = search(user_query,2)
    # 2. 构建 Promptprompt = build_prompt(prompt_template, info=search_results, query=user_query)print("===Prompt===")print(prompt)
    # 3. 调用 LLMresponse = get_completion(prompt)#response = get_completion_ernie(prompt)print("===回复===")print(response)
    if __name__ == '__main__':
    test_promopt()

    通过以上步骤,企业可以构建一套强大的 RAG 系统,显著提升 LLM 在处理特定领域知识和实时信息时的表现。这不仅增强了 LLM 的实用性,也为企业提供了一个高效的信息查询和知识管理工具。


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询