支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


本地部署 DeepSeek 与 MaxKB:打造高效智能知识库

发布日期:2025-04-07 21:42:21 浏览次数: 1550 作者:架构师精进
推荐语

掌握本地部署知识库搭建技巧,提升企业智能问答能力。

核心内容:
1. MaxKB 的便捷性、模型中立特性和灵活编排能力
2. MaxKB 与 DeepSeek 结合的优势分析
3. 私有化部署满足企业合规需求的实践

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家
在人工智能飞速发展的当下,本地部署大语言模型及其配套工具,为企业和个人提供了强大的知识管理与智能问答解决方案。今天,我们就来深入了解如何将 DeepSeek 与 MaxKB 相结合,实现高效的本地知识库搭建。

一、认识 MaxKB

MaxKB,即 “Max Knowledge Base”,是杭州飞致云信息科技有限公司推出的一款基于大语言模型和检索增强生成(RAG)技术的开源知识库问答系统 。它在众多领域有着广泛应用,如企业内部知识库、客户服务、学术研究与教育等场景。

官网:https://maxkb.cn/

文档:https://maxkb.cn/docs/

1. 开箱即用的便捷性

MaxKB 支持直接上传文档,也能自动爬取在线文档。上传后,文档会被自动拆分,并进行向量化处理,结合 RAG 技术,有效减少大模型幻觉,为用户带来良好的智能问答交互体验。比如企业员工在查询公司内部规章制度、业务流程文档时,能快速得到准确且无虚构信息的回答。

2. 模型中立特性

它支持对接各种大语言模型,无论是本地私有大模型,像 DeepSeek、Llama、Qwen 等;还是国内公共大模型,例如通义千问、腾讯混元、字节豆包、百度千帆、智谱 AI 等;亦或是国外公共大模型,如 OpenAI、Claude、Gemini 等。这意味着用户可以根据自身需求和偏好,灵活选择最合适的模型。

3. 灵活编排能力

内置强大的工作流引擎和函数库,MaxKB 能够编排 AI 工作过程,满足复杂业务场景下的多样化需求。例如在电商客服场景中,可以根据客户问题类型,自动调用不同的知识库模块和模型处理流程。

4. 无缝嵌入优势

MaxKB 支持零编码快速嵌入到第三方业务系统,像企业微信、钉钉、飞书、微信公众号等。这使得已有系统能迅速拥有智能问答能力,极大地提高了用户满意度。以微信公众号为例,接入 MaxKB 后,公众号能自动解答用户常见问题,减轻人工客服压力。

二、MaxKB与DeepSeek 结合的优势

DeepSeek 是一款性能卓越的大语言模型,将其与 MaxKB 相结合,能发挥出更强大的功能。

突破数据边界:通过 RAG 技术,DeepSeek 的生成能力可以与 MaxKB 的外部知识库完美结合,突破 DeepSeek 训练数据的时间和范围限制。这意味着模型在回答问题时,能获取到更广泛、更新鲜的信息,回答的准确性和全面性大幅提升。
减少虚构信息:RAG 技术强制 DeepSeek 模型基于检索内容生成答案,有效减少了虚构信息的产生。这一优势在法律、医疗等高风险领域尤为重要。例如在医疗咨询中,基于 MaxKB 知识库和 DeepSeek 模型的回答,能为患者提供更可靠、准确的医疗建议。
满足企业合规需求:支持私有化部署,如使用 Ollama+DeepSeek R1 模型搭配 MaxKB,避免了敏感数据外传,满足企业级的数据安全和合规需求。企业可以放心地将内部重要资料、业务数据等构建成知识库,利用 DeepSeek 和 MaxKB 进行智能管理和问答服务。

三、部署 MaxKB 的详细步骤

关于DeepSeek的 本地化部署,可参考此前发布的有关搭建与部署的文章 ——《别被 “一键部署” 骗了!使用 Ollama 本地部署 DeepSeek 避坑指南》,依照其中步骤自行搭建,此处便不再重复讲解。

本次部署 MaxKB,主要通过 Docker 进行,以下为你逐步介绍部署 MaxKB 的详细步骤:

1. 准备工作

在开始部署前,请确保你的系统满足以下条件:

安装 Docker:MaxKB 需在 Docker 环境下运行,你可以前往Docker 官网下载对应操作系统版本的 Docker 安装包,根据指引完成安装。安装过程中,建议启用 “use wsl2 instead of hyper - v (recommended)” 功能(若适用),必要时重启电脑。

硬件要求:为了获得更好的性能体验,建议具备独立显卡。若用于企业级应用,部署在配备高性能显卡的服务器上,能满足大规模数据处理和高并发访问需求。

2. 拉取 MaxKB 镜像

打开终端,输入以下命令搜索 MaxKB 镜像:

docker search maxkb

然后,通过以下命令拉取 MaxKB 镜像:

docker pull 1panel/maxkb

若拉取过程中提示网络未响应,可尝试使用以下命令拉取最新镜像(此镜像源为中国大陆,可避免因网络代理导致的下载失败问题):

docker pull cr2.fit2cloud.com/1panel/maxkb

整个 MaxKB 的镜像大小约为 2GB,下载时间取决于你的网络速度。

3. 运行镜像

镜像拉取完成后,在终端运行以下命令启动容器实例:

docker run -d --name=maxkb -p 8080:8080 -v ~/.maxkb:/var/lib/postgresql/data 1panel/maxkb

4. 访问 MaxKB

启动 maxkb 容器实例后,打开本地浏览器,在地址栏输入http://localhost:8080(若你在运行镜像时修改了端口映射,则需输入对应的映射端口)进行访问。首次登录时,初始账号为admin,默认密码为MaxKB@123..。登录成功后,系统会提示你更新密码,以保障账号安全。

登录成功并进入系统后,您便能看到 MaxKB 的一系列相关功能,其中包含应用管理、知识库、函数库等。


5. 配置模型

进入系统后,进行关键的模型配置步骤。在左侧导航菜单栏中,点击打开 “系统设置”,然后进入 “模型设置” 页面。这里你会看到众多模型供应商选项。


在线连接大模型:若想通过 API key 在线连接大模型,如 Azure OpenAI、百度千帆、阿里通义千问等,可在此处根据不同模型厂商要求填写相应的 API key。不同模型厂商的申请地址有所不同,需前往对应官网申请获取。

本地部署模型配置(以 Ollama 为例):若希望配置本地部署的模型,如通过 Ollama 部署的 Qwen2、Llama3 等大模型,操作如下:

添加模型:点击 “添加模型”,选择 “Ollama”。

配置模型参数:在模型添加界面,注意以下几点:

模型名称和基础模型:务必与在 ollama list 命令中显示的模型名称一致,否则可能导致不必要的重复下载或连接失败。若下拉列表中没有所需模型,可直接输入正确的模型名称,Ollama 会自动下载该模型(前提是网络连接正常)。

API 域名:由于 MaxKB 通过 Docker 部署,而 Ollama 在本机部署,两者不在同一网络环境,因此需填写 http://本机IP:11434。若在 Windows 系统下部署,且遇到 API 域名无效提示,可能原因一是域名填写错误,二是 Ollama 模型未开启远程链接。解决方法为:在 cmd 中执行

set OLLAMA_HOST=0.0.0.0

6. 创建知识库

模型配置完成后,即可创建知识库。点击页面中的 “创建知识库” 按钮,为知识库命名并输入简要描述。

选择知识库类型,MaxKB 支持通过某个网站作为数据来源构建知识库,也支持直接使用本地文本。若选择使用本地文本构建 “通用型” 知识库,点击进入 “文档上传” 界面。

MaxKB支持上传的文档格式包括 TXT、Markdown、PDF、DOCX、HTML 等。每次最多可上传 50 个文件,且每个文件不超过 100MB。若使用 “高级分段” 功能,建议上传前规范文件的分段标识,以便更好地进行文本拆分和向量化处理。选择好需要上传的文档后,点击右下角的 “创建并导入” 按钮。

在 “设置分段规则” 步骤,可选择 “智能分段” 等方式,然后点击 “开始导入” 按钮。文档导入时间取决于文档内容的多少,内容越多,导入时间越长。

7. 创建应用并进行问答

知识库创建成后回到 MaxKB 主界面,点击 “应用”,然后点击 “创建应用”。依次填写应用名称和应用描述。

在 “AI 模型” 选项中,选中之前配置好的模型。将应用关联到先前创建的知识库,点击 “创建” 按钮完成应用创建。

点击创建好的应用进入对话页面,即可开始使用 MaxKB 进行智能问答。在问答过程中,若本地配置了支持 GPU 加速的模型,还可观察到 GPU 的使用情况,感受高效的智能服务。

总结

通过以上步骤,你就能在本地成功部署并使用 MaxKB,结合 DeepSeek 等大语言模型,构建属于自己的高效智能知识库,享受便捷的知识管理与智能问答服务 。


53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询