AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


探索QAnything:网易有道开源的本地知识库问答系统
发布日期:2024-08-05 14:56:21 浏览次数: 2008 来源:小兵的AI视界


一、引言

在数字化浪潮的推动下,企业与个人面临着信息过载的挑战。如何快速从海量文档中检索信息、解答问题,已成为提升工作效率的关键。有道QAnything引擎以其RAG技术,为这一问题提供了创新的解决方案。本文将深入解析QAnything的技术原理、应用场景,并提供代码实践,为开发者和技术爱好者提供全面的认识和应用指南。


二、QAnything简介


QAnything是由有道开源的基于RAG技术的本地知识库问答系统。它能够处理包括PDFWordExcel、图片等在内的多种文件格式,为用户提供智能化的信息获取体验。


技术特点与优势
  • 多格式支持:无缝处理PDFWord、图片等格式,适应多样化的文档需求。


  • 高准确率:通过精确追溯文档段落来源,确保信息的准确性。


  • 数据安全:支持纯本地部署,保障用户数据的安全性和隐私。


  • 扩展性:无文档数量上限,适用于从小规模到企业级的广泛应用。


、技术解析



1.RAG技术核心


RAG技术结合了信息检索和文本生成两大技术,通过从海量文档中检索相关信息,再利用自然语言生成技术将信息以人类可读的方式呈现。


2.QAnything架构


QAnything的架构设计中,Rerank环节被特别强调,通过两阶段检索排名有效解决了大规模数据检索的退化问题。


知识库数据量大的场景下两阶段优势非常明显,如果只用一阶段embedding检索,随着数据量增大会出现检索退化的问题,如下图中绿线所示,二阶段rerank重排后能实现准确率稳定增长,即数据越多,效果越好。

3.模型与算法
BCEmbedding模型:有道采用的先进语义嵌入排序模型,将文档转化为向量表示,提升检索效率。
深度学习模型:在文本生成方面,通过大量数据训练,生成更自然、流畅的答案。

四、应用场景


1.企业知识管理


QAnything在企业知识管理领域的应用,通过智能检索和问答,极大提高了企业内部信息的利用效率。


2.教育与学术研究


在教育领域,QAnything辅助学术研究,提供文献资料的深入分析和总结,加速知识发现过程。


3.客户服务


作为智能客服系统的一部分,QAnything能够提供基于用户文档的自动问答服务,有效减轻客服工作量,提升客户满意度。


五、部署实践


1.环境准备


确保系统满足QAnything运行的先决条件,包括Python环境、必要的库文件和依赖服务。


Python 3.10+ (建议使用aoaconda3来管理Python环境)
1Linux: CPU模式:无,非CPU模式:glibc 2.28+ and Cuda 12.0+ (来源于onnxruntime-gpu cuda12.x版本的依赖,如果低于2.28自动切换onnxruntime


2Windows: CPU模式:WSL with Ubuntu 18.04+ ,非CPU模式:WSL with Ubuntu 20.04+ 和 桌面版GEFORCE EXPERIENCE 535.104+


3MacOSM1/M2/M3: 使用Openai-API兼容接口模式:无,本地大模型模式:Xcode 15.0+llamacpp依赖Xcode


2.安装QAnything


通过Git命令克隆QAnythingGitHub仓库到本地环境
conda create -n qanything-python python=3.10conda activate qanything-pythongit clone -b qanything-python https://github.com/netease-youdao/QAnything.gitcd QAnythingpip install -r requirements.txt# 请根据使用环境选择启动脚本:bash scripts/xxx(内部调用纯python启动代码,可手动修改python启动命令)

3.启动运行


Windows WSLLinux环境下运行3B大模型(MiniChat-2-3B)要求显存>=10GB
bash scripts/run_for_3B_in_Linux_or_WSL.sh

Windows WSLLinux环境下运行7B大模型(自研Qwen-7B-QAnything)要求显存>=24GB


bash scripts/run_for_7B_in_Linux_or_WSL.sh


Windows WSLLinux环境下运行Openai API,仅使用CPU(纯CPU模式)


scripts/run_for_openai_api_with_cpu_in_Linux_or_WSL.sh中补充api-key等参数
bash scripts/run_for_openai_api_with_cpu_in_Linux_or_WSL.sh

补充说明:

通义千问DashScope支持:


支持任意与Openai API接口兼容的其他API,例:通义千问DashScopeAPI


按照约定修改sh脚本中的-b(openai_api_base)-k(openai_api_key)-n(openai_api_model_name)等参数即可


ollama支持:


同样使用Openai API兼容接口:


例如:当本地运行ollama run llama3,修改scripts/run_for_openai_api_with_cpu_in_Linux_or_WSL.sh内容为:


bash scripts/base_run.sh -s "LinuxOrWSL" -w 4 -m 19530 -q 8777 -o -b 'http://localhost:11434/v1' -k 'ollama' -n 'llama3' -l '4096'


Windows WSLLinux环境下运行Openai API,使用GPU


scripts/run_for_openai_api_with_gpu_in_Linux_or_WSL.sh中补充api-key等参数
bash scripts/run_for_openai_api_with_gpu_in_Linux_or_WSL.sh

4.访问UI界面

启动成功后可在访问前端页面使用


在浏览器中打开http://{your_host}:8777/qanything/即可

注意:末尾的斜杠不可省略,否则会出现404错误

5.API使用


全局参数


  • 我们提供用户区分的功能,每个接口中有 user_id 的参数,如果需要请传入 user_id 的值。


  • user_id 需要满足:以字母开头,只允许包含字母,数字或下划线。


  • 如果不需要区分不同用户,传入 user_id="zzp"即可


  • 注意当且仅当user_id="zzp"时通过API传入的信息与前端页面互通


1) 新建知识库(POST)


URLhttp://{your_host}:8777/api/local_doc_qa/new_knowledge_base


新建知识库请求参数(Body

请求示例
import requestsimport jsonurl = "http://{your_host}:8777/api/local_doc_qa/new_knowledge_base"headers = {"Content-Type": "application/json"}data = {"user_id": "zzp","kb_name": "kb_test"}response = requests.post(url, headers=headers, data=json.dumps(data))print(response.status_code)print(response.text)```响应示例```python{"code": 200, //状态码"msg": "success create knowledge base KBd728811ed16b46f9a2946e28dd5c9939", //提示信息"data": {"kb_id": "KB4c50de98d6b548af9aa0bc5e10b2e3a7", //知识库id"kb_name": "kb_test", //知识库名称"timestamp": "202401251057" // 创建时间戳}}

2) 上传文件(POST)

URLhttp://{your_host}:8777/api/local_doc_qa/upload_files


Content-Type: multipart/form-data


上传文件请求参数(Body


请求示例
import osimport requestsurl = "http://{your_host}:8777/api/local_doc_qa/upload_files"folder_path = "./docx_data" # 文件所在文件夹,注意是文件夹!!data = {"user_id": "zzp","kb_id": "KB6dae785cdd5d47a997e890521acbe1c9","mode": "soft"}files = []for root, dirs, file_names in os.walk(folder_path):for file_name in file_names:if file_name.endswith(".md"):# 这里只上传后缀是md的文件,请按需修改,支持类型:file_path = os.path.join(root, file_name)files.append(("files", open(file_path, "rb")))response = requests.post(url, files=files, data=data)print(response.text)

响应示例

{"code": 200, //状态码"msg": "success,后台正在飞速上传文件,请耐心等待", //提示信息"data": [{"file_id": "1b6c0781fb9245b2973504cb031cc2f3", //文件id"file_name": "网易有道智云平台产品介绍2023.6.ppt", //文件名"status": "gray", //文件状态(red:入库失败-切分失败,green,成功入库,yellow:入库失败-milvus失败,gray:正在入库)"bytes": 17925, //文件大小(字节数)"timestamp": "202401251056" // 上传时间},{"file_id": "aeaec708c7a34952b7de484fb3374f5d","file_name": "有道知识库问答产品介绍.pptx","status": "gray","bytes": 12928, //文件大小(字节数)"timestamp": "202401251056" // 上传时间}] //文件列表}

3) 上传网页文件(POST

URLhttp://{your_host}:8777/api/local_doc_qa/upload_weblink

上传网页文件请求参数(Body


请求示例


import requestsimport jsonurl = "http://{your_host}:8777/api/local_doc_qa/upload_weblink"headers = {"Content-Type": "application/json"}data = {"user_id": "zzp","kb_id": "KBb1dd58e8485443ce81166d24f6febda7","url": "https://ai.youdao.com/DOCSIRMA/html/trans/api/wbfy/index.html"}response = requests.post(url, headers=headers, data=json.dumps(data))print(response.status_code)print(response.text)

响应示例

{"code": 200,"msg": "success,后台正在飞速上传文件,请耐心等待","data": [{"file_id": "9a49392e633d4c6f87e0af51e8c80a86","file_name": "https://ai.youdao.com/DOCSIRMA/html/trans/api/wbfy/index.html","status": "gray","bytes": 0, // 网页文件无法显示大小"timestamp": "202401261809"}]}
4) 查看知识库(POST

URLhttp://{your_host}:8777/api/local_doc_qa/list_knowledge_base


查看知识库请求参数(Body



请求示例
import requestsimport jsonurl = "http://{your_host}:8777/api/local_doc_qa/list_knowledge_base"headers = {"Content-Type": "application/json"}data = {"user_id": "zzp"}response = requests.post(url, headers=headers, data=json.dumps(data))print(response.status_code)print(response.text)

响应示例

{"code": 200, //状态码"data": [{"kb_id": "KB973d4aea07f14c60ae1974404a636ad4", //知识库id"kb_name": "dataset_s_1" //知识库名称}] //知识库列表}
其他API使用可参考:
https://github.com/netease-youdao/QAnything/blob/master/docs/API.md


六、结语


有道QAnything作为一项创新的技术实践,不仅展示了RAG技术的应用潜力,也为开发者提供了一个强大的工具,以解决实际问题。随着技术的不断进步和社区的共同努力,我们期待QAnything在未来能够带来更多的创新和便利。


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询