AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


FastWiki一条命令本地离线部署本地企业级人工智能客服
发布日期:2024-04-23 06:58:55 浏览次数: 2017 来源:token的技术分享


FastWiki一分钟本地离线部署本地企业级人工智能客服

介绍

FastWiki是一个开源的企业级人工智能客服系统,它使用了一系列先进的技术和框架来支持其功能。

技术栈

  • 前端框架:React + LobeUI + TypeScript
  • 后端框架:MasaFramework 基于 .NET 8
  • 动态函数:基于JavaScript V8引擎实现
  • 向量搜索引擎:使用PostgreSQL的向量插件,优化搜索性能 | 简单版本支持磁盘向量
  • 深度学习与NLP:微软Semantic Kernel,提升搜索的语义理解能力
  • 许可证:Apache-2.0,鼓励社区贡献和使用

特点

  • 智能搜索:借助Semantic Kernel的深度学习和自然语言处理技术,能够理解复杂查询,提供精准的搜索结果。
  • 高性能:通过PostgreSQL的向量插件优化向量搜索性能,确保即使在大数据量下也能快速响应。
  • 现代化前端:使用React + LobeUI前端框架,提供响应式设计和用户友好的界面。
  • 强大的后端:基于最新的.NET 8和MasaFramework,确保了代码的高效性和可维护性。
  • 开源和社区驱动:采用Apache-2.0许可证,鼓励开发者和企业使用和贡献。
  • 动态JavaScript函数:提供Monaco智能代码提示,使开发更方便。
  • 强大的QA问答拆分模式:让知识库回复更智能。

FastWiki的部署过程已经被极大地简化,只需运行FastWiki服务即可,无需数据库。

对于FastWiki,我们不段的更新和优化,现在的版本越来越稳定,功能也更丰富,目前我们又简化了FastWiki的部署成本, 您无需数据库即可部署,只需要运行我们的FastWiki服务!

创建Docker指令

下面我们创建我们的FastWiki的指令,只需要一行代码即可运行。

docker run -d --name fast-wiki-service --user root --restart always \
  -p 8080:8080 \
  -v $(pwd)/wwwroot/uploads:/app/wwwroot/uploads \
  -v $(pwd)/data:/app/data \
  -e OPENAI_CHAT_ENDPOINT=https://api.token-ai.cn/ \
  -e OPENAI_CHAT_EMBEDDING_ENDPOINT=https://api.token-ai.cn/ \
  -e OPENAI_CHAT_TOKEN=您的TokenKey \
  -e ASPNETCORE_ENVIRONMENT=Development \
  registry.cn-shenzhen.aliyuncs.com/fast-wiki/fast-wiki-service

在这里我们需要注意俩个点,第一个您的AI模型地址需要修改,您的AIToken也需要修改,确保修改完成,替换参数以后再执行。

运行完成以后我们访问一下容器的端口 如果你是再本地运行的则访问 localhost:8080

点击立即开始

登录系统,系统默认账号:admin 默认密码 Aa123456

登录成功后还会返回页面,再次点击立即开始,点击新增,然后输入您创建的应用名称。

然后点击左边菜单的知识库,然后上传头像,设置我们的模型 (这个模型是用于QA问答解析的时候用到的),设置我们的嵌入模型(嵌入模型是我们用于量化文档的模型)创建完成以后进入知识库,然后点击上传文件。

点击上传文件,

然后吧我们的FastWiki上传上去:

然后点击提交数据:

然后返回到知识库详情:我们看到我们的文档已经量化完成

然后回到应用中然后绑定一下我们刚刚创建的知识库,然后点击保存即可。然后点击左边菜单的对话




53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询