微信扫码
与创始人交个朋友
我要投稿
本文探一探蚂蚁开源的另外一套知识增强生成框架 KAG(Knowledge Augmented Generation),专门用于构建垂直领域知识库的逻辑推理问答框架,论文中提到在电子政务达到了 91.6 的准确率,电子医疗各个问答也有不俗的准确率。
本文会简单的介绍一下 KAG 的概念和构建流程,然后尝试在本地启动 KAG 简单探索一下。它的问题规划非常有意思,请随我一起探索。
KAG 可以有效克服传统 RAG 向量相似度计算的歧义性和 OpenIE 引入的 GraphRAG 的噪声问题,支持逻辑推理、多跳事实问答等。
OpenIE: 神经开放域信息抽取(Open Information Extraction),也被称为开放信息抽取,是一种从非结构化文本中提取信息的强大技术。 不同于传统的信息抽取方法,OpenIE 不依赖于预定义的领域知识或本体模式,使其具有更广泛的适用性和灵活性。
KAG 的核心功能包括:
我认为 KAG 为何会提到专为垂直领域开发,就在于它采用 Schema 来约束知识图谱的构建。像 GraphRAG 就只能够根据自定义实体进行提取,而 KAG 我粗浅地认为是用户可以自定义知识图谱层次关系,自动进行知识对齐。
私域知识库场景,非结构化数据、结构化信息、业务专家经验 往往三者共存,KAG 提出了一种对大型语言模型(LLM)友好的知识表示框架,基于 DIKW(数据、信息、知识和智慧)的层次结构基础进行融合。这使得它能够在同一知识类型(如实体类型、事件类型)上兼容无 schema 约束的信息提取和有 schema 约束的专业知识构建,并支持图结构与原始文本块之间的互索引表示。
这种互索引表示有助于基于图结构的倒排索引的构建,并促进了逻辑形式的统一表示、推理和检索。同时通过知识理解、语义对齐等进一步降低信息抽取的噪声,提升知识的准确率和一致性。
可以看到数据被分块后,经过信息提取后,形成了对齐的知识。
KAG 提出了一种逻辑符号引导的混合求解和推理引擎。该引擎包括三种类型的运算符:规划、推理和检索,将自然语言问题转化为结合语言和符号的问题求解过程。在这个过程中,每一步都可以利用不同的运算符,如精确匹配检索、文本检索、数值计算或语义推理,从而实现四种不同问题求解过程的集成:图谱推理、逻辑计算、Chunk 检索和 LLM 推理。如下图右侧所示。
从图上就能看出,问题经过规划生成了逻辑形式的推理步骤,然后检索最终汇总各个子问题的检索结果,最终生成。我们稍后在代码中就能看到问题是如何规划。
KAG 开源地址:
其整体代码结构分为 Builder 和 Solver,顾名思义前者表示构建器,后者表示解决器,具体的构建流程或者索引流程就不再赘述了,前文中的图大概已经能够解释。
其实还有一个kag-model,但由于没开源,这里就忽略了。
简单安装就是按照如下方式通过 Docker Compose 直接启动所有服务,它安装了以下 3 个服务
curl -sSL https://raw.githubusercontent.com/OpenSPG/openspg/refs/heads/master/dev/release/docker-compose.yml -o docker-compose.yml
docker compose -f docker-compose.yml up -d
然后打开网页http://localhost:8887,可以参考官方文档https://openspg.yuque.com/ndx6g9/0.5/nbb1bn3wegwue6yo#R4iWY创建知识库。
你大概需要配置以下几项。
但我配置好了之后,在索引的时候会一直会报向量批处理超过默认的 64,用的免费的硅基流动 Embedding,看起来是 Docker 默认配置的 Emebdding Batch 过大了,而配置中无法修改 batch size。只能转向开发者模式。
即使是开发者模型,也仍然需要安装刚才的 Docker Compose,其中启动了一些依赖服务,KAG 框架并不包含前端或者服务端的代码。
conda create -n kag-demo python=3.10 && conda activate kag-demo
git clone https://github.com/OpenSPG/KAG.git
cd ./KAG && pip install -e .
knext --version
cd kag/examples
vim ./example.cfg
然后编辑该文件,写入自己的 API KEY。
[project]
namespace = KagDemo
host_addr = http://localhost:8887
id = 1
[vectorizer]
vectorizer = kag.common.vectorizer.OpenAIVectorizer
model = BAAI/bge-m3
api_key = xxxx
base_url = https://api.siliconflow.cn/v1
vector_dimensions = 1024
[llm]
client_type = maas
base_url = https://open.bigmodel.cn/api/paas/v4
api_key = xxxx
model = glm-4-flash
[prompt]
biz_scene = default
language = en
[log]
level = INFO
使用如下命令创建项目,它会在 kag/examples 下创建 KagDemo 这个项目,并且初始化了一整套代码,但距离使用我们需要给数据,并且改写两个文件。
knext project create --config_path ./example.cfg
我们导入四篇论文 graphrag.pdf、hipporag.pdf、hybridrag.pdf 和 lightrag.pdf 到 kag/examples/KagDemo/builder/data 下。
这个应该是用来自定义实体类型约束,这里我们暂不定义,走无 Schema 约束。需要回到目录 KagDemo 中执行如下命令。
knext schema commit
我们需要参考官方文档索引[1]如何调用 SDK 编写 builder,写好的文件需要放置在 KagDemo/builder/indexer.py,最后执行python ./builder/indexer.py
即可,它会启动构建。
我们同样需要参考官方文档 Solver[2]编写 Solver,然后执行python ./solver/evalForKagDemo.py
。
我们测试问题如下,是一个需要大模型获取两个知识,然后才能总结出答案。经过了大约 42 秒,一次性输出所有答案。
那么为何这么慢呢?按照 1.2 节所述,他需要先规划问题生成逻辑形式推导,之后再推理检索生成。所以他是需要等待第一轮 LLM 规划生成后,才能去检索然后输出。我们看一下它的推理过程,非常的有意思的。
这个推理过程似乎并不是每次都能生成,依赖 LLM 本身的能力,可能和我使用的免费 glm-4-flash 测试有关系。
根据源码所示,它采用的是 CoA(Chain of Abstraction)抽象推理链来生成问题推导步骤。CoA 来自于论文Efficient Tool Use with Chain-of-Abstraction Reasoning[3]。
本篇分享就到这里了,有需要的同学可以自己参考官方进行复现测试。其他部分需要同学们自己深入研究了,KAG 的概念会相对多一点,相对没那么直观。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-01-07
Dify本地化部署避坑指南MAC
2025-01-06
Gitee AI加dify整合微信实现文生图案例分享
2025-01-06
突破算力限制!Meta开源“记忆层”,重塑Transformer架构大模型
2025-01-04
跟GPT4o、o1拜拜,Gemini2.0取代了我的AI应用们
2025-01-04
微软研究人员发布 AIOpsLab:面向 AIOps 代理的开源综合人工智能框架
2025-01-03
显卡可能没那么重要了?中国公司给硅谷好好上了一课。
2025-01-02
Docling:开源免费,多格式文档解析神器,13.4k stars 见证卓越实力!
2025-01-02
我与vLLM的2024
2024-07-25
2024-05-06
2024-08-13
2024-06-12
2024-07-11
2024-07-20
2024-06-16
2024-09-20
2024-06-10
2024-06-15
2024-12-24
2024-12-20
2024-12-19
2024-11-22
2024-11-19
2024-11-13
2024-11-13
2024-10-07