引言
传统知识库的痛点
传统知识库广泛应用于企业文档管理、客户支持等场景,但随着信息量和复杂度的增加,存在以下显著问题:
数据难整合:结构化与非结构化数据分散,更新维护成本高。
检索不精准:依赖关键词匹配,难以理解语义,导致检索结果不相关或无效。
用户体验差:操作繁琐、学习曲线陡峭,缺乏智能和个性化支持。
AI时代对知识库需求
在信息爆炸和数字化转型背景下,企业需要更加智能的知识库。结合AI大模型的知识库具备以下优势:
语义级检索:通过语义理解,提供精准的查询结果。
智能交互:支持自然语言对话,用户体验更佳。
自动化维护:实现数据的自动整合与更新,降低维护成本。
在大模型的加持下,让以上问题有了新的解法,今天我们来介绍FastGPT如何利用AI大模型重新定义传统知识库。
01.
FastGPT知识库工作原理
01 FastGPT简介
FastGPT是一个基于大语言模型(LLM)的智能化平台,擅长理解和处理自然语言。它通过深度学习技术,可以从各种数据源中自动提取和整合信息,生成语义丰富的知识库,并实现智能化的响应和检索。
02 FastGPT知识库工作原理
数据预处理:将文本拆分成更小的片段,比如:句子、段落。
文本向量化:利用大模型生成语义高维向量。
索引构建:将生成的语义向量构建成索引,通常包括向量索引和倒排索引。索引有助于快速检索相关片段,提高响应速度。
检索与匹配:当用户查询时,查询内容也会被向量化,并在索引中匹配相关的语义向量
AI对话:利用大模型的上下文理解能力,理解用户需求,生成自然回答。
02.
搭建FastGPT知识库步骤
我们先来看一张FastGPT的部署架构图,主要包括FastGPT、MongoDB、PostgreSQL、OneAPI:
FastGPT有多个版本,分别为PgVector、Milvus、zilliz cloud,分别对应不同的配置要求,如下图:
文本仅作演示,因此选择PgVector版本
前置工作
Step1 确保网络环境
如果使用OpenAI
等国外模型接口,请确保可以正常访问,否则会报错:Connection error
等
Step2 准备 Docker 环境
# 安装 Dockercurl -fsSL https://get.docker.com | bash -s docker --mirror Aliyunsystemctl enable --now docker# 安装 docker-composecurl -L https://github.com/docker/compose/releases/download/v2.20.3/docker-compose-`uname -s`-`uname -m` -o /usr/local/bin/docker-composechmod +x /usr/local/bin/docker-compose# 验证安装docker -vdocker-compose -v# 如失效,自行百度~
开始部署
Step1 下载 docker-compose.yml
所有 docker-compose.yml
配置文件中 MongoDB
为 5.x,需要用到AVX指令集,部分 CPU 不支持,需手动更改其镜像版本为 4.4.24(需要自己在docker hub下载,阿里云镜像没做备份)
Linux 快速脚本
mkdir fastgpt
cd fastgpt
curl -O https://raw.githubusercontent.com/labring/FastGPT/main/projects/app/data/config.json
# pgvector 版本(测试推荐,简单快捷)
curl -o docker-compose.yml https://raw.githubusercontent.com/labring/FastGPT/main/files/docker/docker-compose-pgvector.yml
# milvus 版本
# curl -o docker-compose.yml https://raw.githubusercontent.com/labring/FastGPT/main/files/docker/docker-compose-milvus.yml
# zilliz 版本
# curl -o docker-compose.yml https://raw.githubusercontent.com/labring/FastGPT/main/files/docker/docker-compose-zilliz.yml
Step2 启动容器
在 docker-compose.yml 同级目录下执行。请确保docker-compose
版本最好在2.17以上,否则可能无法执行自动化命令。
# 启动容器docker-compose up -d# 等待10s,OneAPI第一次总是要重启几次才能连上Mysqlsleep 10# 重启一次oneapi(由于OneAPI的默认Key有点问题,不重启的话会提示找不到渠道,临时手动重启一次解决,等待作者修复)docker restart oneapi
Step3 打开 OneAPI 添加模型
简单说明一下OneAPI的作用和原理,这里可以把OneAPI当作一个接口网关:
默认情况下,FastGPT 只配置了 GPT 的模型,如果你需要接入其他模型,需要进行一些额外配置。
One API 是一个 OpenAI 接口管理 & 分发系统,可以通过标准的 OpenAI API 格式访问所有的大模型,开箱即用。
FastGPT 可以通过接入 One API 来实现对不同大模型的支持
通过 ip:3001
访问OneAPI,默认账号为 root
密码为 123456
。
在oneapi中添加合适的AI模型渠道,如果搭建服务器可以访问openai,则可以跳过此步骤.
如果想使用国内大模型或者本地部署的模型,下文会涉及。
Step4 访问 FastGPT
目前可以通过 ip:3000
直接访问(注意防火墙)。登录用户名为 root
,密码为docker-compose.yml
环境变量里设置的 DEFAULT_ROOT_PSW
。
02.
接入国产大模型
如果无法科学上网,或者想接入国产大模型,甚至知识库可能设置一些敏感数据,想接入本地大模型的,可以参考本章节,这里以接入国产大模型为例,接入本地大模型类似。
FastGPT可以统一接入不同模型的核心原理,是借助了另一个开源项目的能力:oneapi
项目地址:https://github.com/songquanpeng/one-api
Step1 打开oneapi,添加渠道
因为这里只是做演示用途,我们可以使用阿里灵积提供的免费开源大模型
模型列表:https://help.aliyun.com/zh/model-studio/getting-started/models
我们这里使用 qwen1.5-1.8b-chat 作为文本处理模型,text-embedding-v2 作为索引模型(文本向量)
密钥获取地址:https://dashscope.console.aliyun.com/apiKey
Step2 测试渠道
添加 text-embedding-v2 渠道方法同理
Step3 修改FastGPT配置文件
测试通过后,我们需要修改FastGPT的配置文件,然后重启FastGPT
打开 fastgpt/config.json,在llmModels下添加 qwen1.5-1.8b-chat 的配置,注意 datasetProcess 需要设置为 true,如下图所示:
{"model": "qwen1.5-1.8b-chat","name": "qwen1.5-1.8b-chat","avatar": "/imgs/model/openai.svg","maxContext": 32000,"maxResponse": 2000,"quoteMaxToken": 120000,"maxTemperature": 1.2,"charsPointsPrice": 0,"censor": false,"vision": true,"datasetProcess": true,"usedInClassify": true,"usedInExtractFields": true,"usedInToolCall": true,"usedInQueryExtension": true,"toolChoice": true,"functionCall": false,"customCQPrompt": "","customExtractPrompt": "","defaultSystemChatPrompt": "","defaultConfig": {}},
在 vectorModels 标签下添加 text-embedding-v2
{"model": "text-embedding-v2","name": "text-embedding-v2","avatar": "/imgs/model/openai.svg","charsPointsPrice": 0,"defaultToken": 1536,"maxToken": 2048,"weight": 100},
重启FastGPT
docker-compose downdocker-compose up -d
Step4 创建知识库
打开FastGPT,点击左侧“知识库”,右上角点击“创建”
选择“通用知识库”
文本处理模型选择刚刚配置好的 qwen1.5-1.8b-chat,索引模型选择 text-embedding-v2
创建完成后,进入知识库,点击创建/导入,这里以导入文本数据集为例
这里准备了一个docx文本数据,这里描述了发生故障的时间和根因。实际操作中,可以使用企业内部沉淀的学习资料,故障复盘等、操作手册等
导入时,选择“本地文件”
数据处理方式
直接分段:将文本按一定的规则进行分段处理后,转成可进行语义搜索的格式,适合绝大多数场景。不需要调用模型额外处理,成本低。 增强处理(实验):通过子索引以及调用模型生成相关问题与摘要,来增加数据块的语义丰富度,更利于检索。需要消耗更多的存储空间和增加 AI 调用次数。 问答拆分:根据一定规则,将文本拆成一段较大的段落,调用AI 为该段落生成问答对。有非常高的检索精度,但是会丢失很多内容细节。
上传数据
创建应用
点击工作台,创建“简易应用”
填写应用名字,选择“知识库+对话引导”
创建成功后,进入应用,修改AI模型:qwen1.5-1.8b-chat
选择AI模型
可以根据需要调整模型温度、回复上限、和聊天记录数量
关联知识库
选择刚刚创建的知识库
发布应用
问答测试
选择我们刚刚创建好的应用,就可以开始聊天了
我们尝试提问某天发生了什么故障,以及根因是什么?
可以看出,FastGPT根据知识库给出了准确答案,根据AI进行了扩展,问答下方有标注答案应用的出处
点击回答下方的查看详情,可以看到知识库的工作流程。
首先,FastGPT会根据将用户提问的问题交给向量模型做向量化,然后匹配本地知识库索引
结合上下文发送给AI大模型,生成自然语言的回答。
这里再简单说明下使用文本向量作为索引模型的原因:
文本向量的原理
什么是文本向量:可以把文本向量想象成一个由数字组成的“坐标”,用来表示一句话或一段文字。比如,假设我们把每句话都放在一张巨大的地图上,这些数字就是地图上表示它们的位置。 为什么要这样做:当两句话的意思很相似时,它们的“坐标”会在地图上靠得很近;如果意思差很多,坐标就会离得远。这种方式能帮助计算机理解哪些句子在说同一件事。 如何生成这种“坐标”:生成这些坐标的方法有很多,比如通过机器学习,让计算机“读”大量的文本,学会用数字来表达语义信息。这样一来,计算机就能理解一些复杂的语言含义,而不仅仅是词语的表面意思。
FastGPT知识库使用文本向量的原因
更聪明的搜索:传统的搜索只能匹配关键词,如果用户的提问和知识库中的表达方式不完全一样,可能找不到正确的答案。而用文本向量,系统可以理解提问的真正意思,即使用词不同,也能找到相关的答案。 应对不同的说法:人们表达同一个意思的方式可能千差万别。文本向量能让系统识别这些不同的表达,从而更好地理解用户的问题。 更灵活:随着知识库中的信息增加,文本向量可以帮助系统更容易地找到新知识,保持回答的准确性,而不需要频繁更新或手动调整。
总结
本篇文章详细介绍了如何使用FastGPT搭建向量知识库。FastGPT充分利用了大模型的自然语言处理和对话能力,大幅提高了知识搜索的精确度,同时优化了用户的使用体验。
此外,文章还阐述了FastGPT知识库的工作原理。通过将文本转换为向量来建立索引,并借助大模型的上下文理解能力,系统能够为用户生成准确且符合语境的回答。
这种方法不仅提升了信息检索的效率,还显著改善了用户与知识库的交互方式。