AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


AI | 基于 MaxKB+Ollama+Llama3 手把手从0-1构建本地私有化知识库
发布日期:2024-04-28 08:04:53 浏览次数: 3038


前言

随着人工智能技术的快速发展-大型语言模型(LLM),如 OpenAI 的 GPT 系列,已成为众多企业和个人关注的焦点,而 Ollama 作为一款开源的大型语言模型服务工具,正逐渐受到开发者和研究人员的关注,本文将探讨基于 MaxKB+Ollama +Llama3  如何快速零成本构建本地私有化 AI 知识库!



安装 Ollama

Ollama 作为一款开源的大型语言模型服务工具,凭借其开源性、大规模和可定制性等特点,在人工智能领域展现出了巨大的潜力。通过高效性、灵活性和社区支持等优势,Ollama 在NLP、机器翻译和文本生成等领域得到了广泛应用。

下载&安装 Ollama 对应版本,根据操作系统任选其一即可。



运行 Llama3

输入命令,运行:To run and chat with Llama3.

ollama run llama3

上述命令,默认下载的就是:



安装 MaxKB

MaxKB 是一款基于 LLM(Large Language Model)大语言模型-知识库问答系统(Max Knowledge Base)

在 MaxKB 中接入 Ollama 的 LLM 模型,可以快速部署本地知识库问答系统~
docker run -d --name=maxkb -p 8080:8080 -v ~/.maxkb:/var/lib/postgresql/data 1panel/maxkb
拉取镜像,待其镜像下载完成后,

我们可以查看其镜像相关信息,

界面可视化-启/停构建的镜像服务。

首先,打开 MaxKB 界面 UI:
http://127.0.0.1:8080/ui/login#/
初始账号: admin初始密码: MaxKB@123..

登录成功之后,更新密码:

然后,在左侧导航菜单栏,打开系统设置,进入模型设置,添加我们前面下载好的 Ollama+Llama3:

模型设置,可根据实际场景需要添加:

当模型配置完成后,则构建我们的专属知识库:

这里,我们可以设置知识内容分段的类型:

这样,我们的译点架构-专属知识库就创建好了。

接下来,我们就可以根据译点架构专属知识库,构建我们的译点 AI 智能小助手。

补充完善我们的应用信息,进行开场白及多轮对话等功能设置,问题优化等。

至此,我们的 AI 大模型,私有知识库,专属应用就都配置完成。这样,一个本地私有化知识库应用就完成了搭建!与此同时,我们就拥有了一个智能且私有化的 AI 知识库,节省了 baidu 或 google 一下的时间,大大提高了我们日常工作中的效率
其实,这与早期所接触研发的知识库(对信息的归纳、概括与总结->数据客观存在-信息加工)领域相比来看,AI 在语义、语境搜索,上下文联想,召回率,相关性,准确度等各方面丝毫不逊色,尤其是在垂类的知识领域,AI 检索使得回答更精准(前提:提示词给得恰到好处,让机器成为你的好帮手),交互体验的效果也更受用户青睐!

当然,也需要持续关注应用的运行情况,并根据用户反馈和市场需求进行迭代和更新,这包括优化用户体验、增加新功能,安全隐私等。由于时间等问题,后续会抽空专门整理一些智能 AI 助手回答效果及调优的文章(根据后台童鞋粉丝的需求呼吁度)><




53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询