微信扫码
与创始人交个朋友
我要投稿
随着GPT等大型语言模型(LLM)能力越来越强大,如何将这些模型精准地应用于特定垂直领域,让各行业开发者快速利用LLM赋能也成为热点和痛点。众所周知,LLM在处理超出其训练数据或涉及最新实事时,常会产生“幻觉”现象,简单理解就是会出现一本正经的胡说八道,回答不准确。针对此问题,RAG通过从外部知识库检索相关文档作为上下文输入到LLM有效地减少了生成内容不符合实际的情况。
在介绍RAG-GPT项目之前,我们首先要理解RAG的基本原理,RAG在问答系统中的一个典型应用主要包括三个模块,分别是:
Indexing(索引):将文档分割成chunk,编码成向量,并存储在向量数据库中。
Retrieval(检索):根据用户输入query和向量数据库中chunks语义相似度检索与问题最相关的前k个chunk,形成本次问答的上下文。
Generation(生成):将原始问题和检索到的chunks整合形成合适的prompt一起输入到LLM中,让LLM输出与上下文有关的回答。
智能文档的在线检索流程可以用一张图说明,上图中展示了一个完整的问答流程:
用户发起query
结合Bot实际应用场景,评估是否对query进行rewrite
Retieval模块根据query检索出Indexing中的相关的文档
将召回的文档进行Reranking
并且根据relevance score进行过滤,过滤掉低质的文档
形成合适的Prompt后输入到LLM大模型中,最后生成答案
以上是对RAG技术的基本介绍,如果想深入了解技术细节可以参考这篇文章:RAG技术全解析:打造下一代智能问答系统。
从RAG的原理介绍中可以看到要实现RAG整套架构还是存在一定工作量,需要构建索引、检索、集成LLM、Prompt优化等一系列模块,具有一定的难度。
基于此,RAG-GPT提供了一整套开源解决方案,旨在利用LLM和RAG技术快速搭建一个全功能的客服解决方案。该项目基于Flask框架,包括前端用户界面、后端服务和管理员控制台,为企业利用LLM搭建智能客服等对话场景提供了一个完整的自动化解决方案,可以帮助开发者快速搭建一个智能问答系统,且代码完全开源。项目地址:https://github.com/open-kf/rag-gpt
RAG-GPT关键特性:
内置LLM支持:支持云端LLM和本地LLM。
快速设置:只需五分钟即可部署生产级对话服务机器人。
多样化知识库集成:支持多种类型的知识库,包括网站、独立URL和本地文件。
灵活配置:提供用户友好的后台,配备可定制的设置以简化管理。
美观的用户界面:具有可定制且视觉上吸引人的用户界面。
从特性可以知道,RAG相比一些商业收费的基于知识库的问答系统优势在于:
易用、快速搭建。
能自主管理知识库,避免商业秘密和知识产权泄漏。
可以自主选择LLM模型和甚至扩展部署本地模型。
RAG-GPT的基本组成分为三部分:- 智能问答后端服务- 管理后台系统- 用户使用的ChatBot UI。
下面,将介绍如何启动RAG-GPT项目和使用这三个模块,将RAG-GPT集成到你的网站只需要5个步骤:
git clone https://github.com/open-kf/RAG-GPT.git && cd RAG-GPT
在启动RAG-GPT服务之前,需要修改相关配置,以便程序正确初始化。
这里使用 OpenAI 作为 LLM 底座
cp env_of_openai .env
.env 文件中的变量
LLM_NAME="OpenAI"
OPENAI_API_KEY="xxxx"
GPT_MODEL_NAME="gpt-3.5-turbo"
MIN_RELEVANCE_SCORE=0.3
BOT_TOPIC="xxxx"
URL_PREFIX="http://127.0.0.1:7000/"
USE_PREPROCESS_QUERY=0
USE_RERANKING=1
USE_DEBUG=0
对 .env 中的变量做以下调整:
不要修改 LLM_NAME。
将 OPENAI_API_KEY 替换为你自己的密钥。请登录 (OpenAI 网站)[https://platform.openai.com/api-keys ] 查看你的 API 密钥。
更新 GPT_MODEL_NAME 设置,将 gpt-3.5-turbo
替换为 gpt-4-turbo
或 gpt-4o
,如果你想使用 GPT-4。
将 BOT_TOPIC 更改为你的机器人的名称。这非常重要,因为它将在构造Prompt中使用。我在这里要搭建LangChain网站的智能客服,所以改写为LangChain
。
调整 URL_PREFIX 以匹配你的网站的域名。
有关常量的含义和用法的更多信息,可以查看 server/constant 目录下的文件。
分别执行以下命令,即可启动。
[!NOTE]请使用 Python 3.10.x 或以上版本。
先安装python依赖项
python3 -m venv myenv
source myenv/bin/activate
pip install -r requirements.txt
启动项目即可:
python create_sqlite_db.py
python rag_gpt_app.py
或者执行
sh start.sh
启动服务后先打开管理后台。
首先要登录到管理后台,浏览器输入:http://127.0.0.1:7000/open-kf-admin/
登录账号为:admin
密码 :open_kf_AIGC@2024
.
导入知识库,这里输入LangChain的网站。
在管理后台切换到source tab,输入LangChain官网地址:https://python.langchain.com/v0.1/docs/get_started/introduction/
,点击 Fetch more links
即可一键爬取网站内容作为知识库。
在后台可以看到爬取网页URL的日志。
获取网站的所有网页URL后,此时网页URL展示的状态是 Stored
。在管理后台,点击 Confirm
提交想要抓取的网页URL(默认抓取获取的所有URL)。
等所有网页URL的文本都被抓取,并且存入向量数据库后,在管理后台上所有网页URL展示的状态都是 Trained
。
浏览器打开http://127.0.0.1:7000/open-kf-chatbot/,就可以访问Bot了。
RAG-GPT提供了将聊天机器人嵌入到网站的方法,使得用户可以直接在网站上使用智能问答服务。打开管理后台菜单切换到embed,复制两个代码即可实现一键嵌入,这两个代码片效果分别如下:一个是iframe嵌入一个聊天窗口,一个是在页面右下角点击弹出聊天窗口。可以新建一个文本文件,将代码复制进去,用浏览器打开就可以看到嵌入效果了。
管理员可以通过仪表板查看用户的历史请求记录,以便进行分析和优化。
可以按照时间、用户查询聊天记录和修改问答对的答案以更符合自身需求。
配置聊天对话的UI
用户可以定制化聊天对话框的风格,使其更符合自身网站的风格特性。
RAG-GPT项目具备开源免费、易于部署集成、开箱即用和功能丰富的特点,为LLM大模型在特定领域的应用落地提供了一套企业级的解决方案。RAG-GPT已经支持本地文件知识库,集成国内LLM大模型等特性,使得RAG-GPT满足更多样化的需求。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-11-22
RAG技术在实际应用中的挑战与解决方案
2024-11-22
从普通RAG到RAPTOR,10个最新的RAG框架
2024-11-22
如何使用 RAG 提高 LLM 成绩
2024-11-21
提升RAG性能的全攻略:优化检索增强生成系统的策略大揭秘 | 深度好文
2024-11-20
FastGraphRAG 如何做到高达 20%优化检索增强生成(RAG)性能优化
2024-11-20
为裸奔的大模型穿上"防护服":企业AI安全护栏设计指南
2024-11-20
RAG-Fusion技术在产品咨询中的实践与分析
2024-11-19
构建高性能RAG:文本分割核心技术详解
2024-07-18
2024-05-05
2024-07-09
2024-07-09
2024-05-19
2024-06-20
2024-07-07
2024-07-07
2024-07-08
2024-07-09
2024-11-06
2024-11-06
2024-11-05
2024-11-04
2024-10-27
2024-10-25
2024-10-21
2024-10-21