AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


打造高效私有化知识库:MaxKB、Ollama与Llama3的完美结合

发布日期:2025-01-22 08:00:43 浏览次数: 2051 来源:AI遇见云
推荐语

数字化时代,企业知识管理需求剧增,本文教你用 MaxKB、Ollama 与 Llama3 打造高效私有化知识库。

核心内容:
1. 打造私有化知识库的背景
2. 相关技术选型介绍
3. 具体实践路径与环境准备

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家



1

背景


    随着产品的需求的不断增长,传统的conf管理方式已难以满足查找历史需求的要求。因此需要一个智能的知识库问答系统来提供快速、准确的信息支持。本文使用MaxKB、Ollama 和 Llama3 的结合为这一需求提供了完美的解决实践。

2


实践方案



  • 技术选型

知识管理:MaxKB 是一款基于大语言模型(LLM)的知识库问答系统,支持多种主流大语言模型,包括 Llama3、OpenAI 等。它具有开箱即用、模型中立、灵活编排和无缝嵌入等特点,能够快速搭建并部署知识库问答系统。

推理框架Ollama 是一个轻量级的模型管理工具,可以方便地管理和运行大语言模型。它支持多种模型,包括 Llama3,并且可以通过简单的命令行操作进行部署和运行。

基础模型Llama3 是一个高性能的大语言模型,具有强大的自然语言处理能力,能够提供准确的问答服务。



  • 实践路径

  • 环境准备


    1. 安装 Docker运行环境


    Docker Desktop 是适用于 Mac、Linux 或 Windows 环境的一键式安装应用程序 这允许您构建、共享和运行容器化应用程序和微服务。它提供了一个简单的 GUI(图形用户界面),允许您直接从计算机管理容器、应用程序和映像,Docker Desktop支持 MacWindows  Linux 上安装 。注:个人使用是免费的,但商业用途需要付费订阅。



    windows为案例:

    1.使用页面顶部的下载按钮或从发行说明下载安装程序。2.双击以运行安装程序。默认情况下,Docker Desktop 安装在 C盘3.出现提示时,请确保是否选中“配置”页上的“使用 WSL 2 而不是 Hyper-V”选项,具体取决于你选择的后端。如果您的系统仅支持这两个选项之一,您将无法选择要使用的后端。4.按照安装向导上的说明授权安装程序并继续安装。5.安装成功后,选择 Close 以完成安装过程。6.启动 Docker Desktop

        默认情况下,Docker Desktop会从Docker Hub下载镜像,但在国内由于网络的原因,下载速度可能较慢,配置国内镜像源可以提速镜像下载:



    • 安装 MaxKB



        MaxKB = Max Knowledge Base,是一款基于大语言模型和 RAG 的开源知识库问答系统,广泛应用于智能客服、企业内部知识库、学术研究与教育等场景。

    特性:1.开箱即用支持直接上传文档 / 自动爬取在线文档,支持文本自动拆分、向量化和 RAG(检索增强生成),有效减少大模型幻觉,智能问答交互体验好;2.快速接入支持零编码嵌入到第三方业务系统,以及快速接入企业微信、钉钉、飞书、公众号等应用,让已有系统快速拥有智能问答能力,提高用户满意度;3.灵活编排内置强大的工作流引擎和函数库,支持编排 AI 工作过程,满足复杂业务场景下的需求;4.模型中立支持对接各种大模型,包括本地私有大模型(Llama 3 / Qwen 2 等)、国内公共大模型(通义千问 / 腾讯混元 / 字节豆包 / 百度千帆 / 智谱 AI / Kimi 等)和国外公共大模型(OpenAI / Claude / Gemini 等)。



    快速部署:



    打开cmd窗口中下载模型,输入一下命令行



    docker pull 1panel/maxkb

    等下载成功后,然后在Docker Desktop Images目录可以看到该镜像



    启动maxkb:

        MaxKB 镜像依赖 PostgreSQL 数据库来存储数据。为了确保数据的持久化和安全性,MaxKB 通过挂载文件卷的方式将数据库文件保存在宿主机上。因此,在 Windows 系统中,需要提前创建一个目录用于挂载卷,以保存数据库文件。



    步骤 1: 创建挂载目录


    1.选择盘符:选择一个合适的盘符,例如 E:\。2.创建目录:在该盘符下创建一个目录,用于挂载卷。假设目录路径为 E:\zzm\dockervolume。

    步骤 2: 运行 MaxKB 容器



    在运行 MaxKB 容器时,需要将该目录挂载到容器内部的 PostgreSQL 数据库文件目录。具体命令如下:



    # Windows 操作系统docker run -d --name=maxkb -p 8080:8080 -v E:\\zzm\\dockervolume\\maxkb:/var/lib/postgresql/data 1panel/maxkb

    步骤 3: 访问 MaxKB 界面



    运行容器后,打开浏览器,访问 http://<服务器IP>:8080/ui/login,使用默认账号 admin 和密码 MaxKB@123.. 登录。





    • 安装 Ollama:运行 Llama3 模型。



        Ollama 是一个开源的大型语言模型服务工具,旨在帮助用户快速在本地运行大模型。通过简单的安装指令,用户可以通过一条命令轻松启动和运行开源的大型语言模型。Ollama 提供了一个简洁易用的界面,使得用户无需深入了解复杂的底层技术,就能轻松地加载、运行和交互各种大型语言模型(LLM)。

    1.下载安装包:访问 Ollama 官方网站 https://ollama.com/ 的下载页面:Ollama 下载。选择Windows并点击下载。

    2.安装 Ollama:下载完成后,双击安装包进行安装。安装过程中,遵循提示完成安装步骤。默认安装路径为 C:\Users\{你的电脑账户名}\AppData\Local\Programs\Ollama。要将 Ollama 应用程序安装在不同于用户目录的位置,请使用以下标志启动安装程序:

    OllamaSetup.exe /DIR="d:\some\location"

    3.修改模型的位置配置环境变量:

        要更改 Ollama 存储下载模型的位置,而不是使用你的主目录,可以在你的用户账户中设置环境变量 OLLAMA_MODELS。

    1. 启动设置(Windows 11)或控制面板(Windows 10)应用程序,并搜索 环境变量。

    2. 点击 编辑账户环境变量。

    3. 编辑或创建一个新的用户账户变量 OLLAMA_MODELS,设置为你希望存储模型的路径。

    4. 点击确定/应用以保存


    4.验证安装

    打开命令提示符,输入 ollama --version 来验证安装是否成功。



    启动ollama 加载llama3 中文模型:


    启动ollama 

    选择你需要的模型,并安装

    ollama pull llama3
    输入ollama list 查看已下载的模型镜像文件
    模型测试






    • 功能验证

    maxkb 配置ollama

    a. 在模型设置页面中,点击“添加模型”按钮。



    API 地址:假设你的本地电脑 IP 是172.20.xxx.xxx,并且你已经开启了远程 IP 访问,确保容器可以访问本地 Ollama 服务。



    注意:API 域名不可使用 127.0.0.1 或 localhost。 使用上述IP地址,需要配置环境变量OLLAMA_HOST=0.0.0.0



    b.创建知识库



    打开【知识库】页面,点击【创建知识库】,输入知识库名称、知识库描述、选择通用型知识库类型,然后将离线文档通过拖拽方式或选择文件上传方式进行上传。



        目前 MaxKB 支持智能分段和高级分段两种分段方式。分段规则设置完成后,需要点击【生成预览】查看最新规则的分段效果。



        点击【创建并导入】后,系统后台会对文档进行自动分段 -> 存储 -> 向量化处理操作,执行完成后在知识库文档列表中各个文件状态显示为成功。



    c.创建应用



        在右侧窗口中,输入与知识库相关的内容,系统将依据知识库中的内容检索到相关的产品需求信息,并将其发送至后端的 xxx中文模型进行推理处理,进而构建出一个专属的私有化知识库大模型应用。


    • 3


    一些思考


        

    1. 构建高质量知识库



        单个文档规范:将相关性强的内容尽量聚集在同一段落或章节内,避免指代或缩略关键信息,避免无意义的空行,建议利用项目符号和有意义的缩进来分点阐述。



        多文档规范:确保多个文档之间做到知识独立、知识聚合、规范统一以及覆盖全面。这样做能够显著提高知识的召回准确度,从而提升整体效果。



    2. 性能优化



        硬件配置:确保运行 MaxKB 的设备配置足够高,以获得更好的性能。在高配置的设备上运行 MaxKB 系统。



        模型选择:根据实际需求选择合适的模型,如 Llama3-Chinese:8B 中文模型,以确保推理速度和准确性。



    3. 模型拓展



        多模型支持:MaxKB 支持对接多种大语言模型,包括本地私有大模型和云端大模型。可以根据实际需求下载并运行其他大语言模型,以拓展 MaxKB 系统的问答能力。



    4. 集成与嵌入



        无缝嵌入:MaxKB 支持零编码快速嵌入到第三方业务系统中,进一步提升企业的智能化水平和用户体验。



    5. 定期更新与维护



        知识库更新:定期对知识库进行审核和更新,补充缺失的知识点,淘汰过时的内容,确保知识库的完整性和准确性。



        模型更新:定期更新使用的语言模型,以获取最新的功能和性能改进。



    6. 用户体验优化



        交互设计:优化用户界面和交互设计,提供更直观、易用的操作体验。



        反馈机制:添加用户反馈机制,收集用户对问答系统的使用体验和改进建议,持续优化系统。




    通过以上优化工作,可以进一步提升基于 MaxKB+Ollama+Llama3 的产品私有化知识库问答系统的性能和用户体验,使其更好地服务于我们的问答需求。


    53AI,企业落地大模型首选服务商

    产品:场景落地咨询+大模型应用平台+行业解决方案

    承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

    联系我们

    售前咨询
    186 6662 7370
    预约演示
    185 8882 0121

    微信扫码

    和创始人交个朋友

    回到顶部

     

    加载中...

    扫码咨询