微信扫码
与创始人交个朋友
我要投稿
FastWiki是一个开源的企业级人工智能客服系统,它使用了一系列先进的技术和框架来支持其功能。
技术栈
特点
FastWiki的部署过程已经被极大地简化,只需运行FastWiki服务即可,无需数据库。
对于FastWiki
,我们不段的更新和优化,现在的版本越来越稳定,功能也更丰富,目前我们又简化了FastWiki
的部署成本, 您无需数据库即可部署,只需要运行我们的FastWiki
服务!
下面我们创建我们的FastWiki
的指令,只需要一行代码即可运行。
docker run -d --name fast-wiki-service --user root --restart always \
-p 8080:8080 \
-v $(pwd)/wwwroot/uploads:/app/wwwroot/uploads \
-v $(pwd)/data:/app/data \
-e OPENAI_CHAT_ENDPOINT=https://api.token-ai.cn/ \
-e OPENAI_CHAT_EMBEDDING_ENDPOINT=https://api.token-ai.cn/ \
-e OPENAI_CHAT_TOKEN=您的TokenKey \
-e ASPNETCORE_ENVIRONMENT=Development \
registry.cn-shenzhen.aliyuncs.com/fast-wiki/fast-wiki-service
在这里我们需要注意俩个点,第一个您的AI模型地址需要修改,您的AIToken
也需要修改,确保修改完成,替换参数以后再执行。
运行完成以后我们访问一下容器的端口 如果你是再本地运行的则访问 localhost:8080
点击立即开始
登录系统,系统默认账号:admin 默认密码 Aa123456
登录成功后还会返回页面,再次点击立即开始,点击新增,然后输入您创建的应用名称。
然后点击左边菜单的知识库,然后上传头像,设置我们的模型 (这个模型是用于QA问答解析的时候用到的),设置我们的嵌入模型(嵌入模型是我们用于量化文档的模型)创建完成以后进入知识库,然后点击上传文件。
点击上传文件,
然后吧我们的FastWiki上传上去:
然后点击提交数据:
然后返回到知识库详情:我们看到我们的文档已经量化完成
然后回到应用中然后绑定一下我们刚刚创建的知识库,然后点击保存即可。然后点击左边菜单的对话
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-12-04
FastGPT 3分钟实现李继刚的“汉语新解”(保姆级教程)
2024-10-30
扔掉 Google 翻译!这个超强 AI 翻译工作流才是你的最佳选择
2024-09-12
FastGPT一站式解决方案[1-部署篇]:轻松实现RAG-智能问答系统
2024-09-07
FastGPT 正式接入 Flux,准备好迎接 AI 绘画的狂风了么?
2024-08-24
简洁优雅知识库 FastGPT 快速部署
2024-08-22
FastGPT:利用大模型重新定义传统知识库
2024-08-13
定制你的AI梦!快速搭建属于自己的本地FastGPT
2024-08-03
Ollama 0.3.1-0.3.3 版本已推出
2024-04-23
2024-05-09
2024-05-08
2024-05-08
2024-05-09
2024-06-03
2024-04-24
2024-07-26
2024-05-01
2024-06-20