微信扫码
添加专属顾问
我要投稿
大模型与知识图谱的深度融合,开启智能系统新篇章。 核心内容: 1. 大模型发展对知识图谱的影响及作用 2. 数据智能实现的两种方式:专家系统与统计学习 3. 知识图谱与大模型融合的应用及未来展望
导读 在人工智能领域,随着大模型的迅速发展,其对知识图谱的作用引发了广泛关注。知识图谱作为一种结构化的知识表示方式,能够有效增强大模型的推理能力和可解释性,弥补其推理能力单一和幻觉问题。在数据驱动与知识驱动的结合中,知识图谱提供了一种可控、可解释的方式,帮助大模型实现更高级的智能。本文将深入探讨知识图谱与大模型的深度融合路径,包括提示工程、模型微调、检索增强、推理协同等方面的应用,通过这些融合,将有助于构建下一代可信的智能系统,为实现通用人工智能奠定基础。
1. KG+LLM 概述
2. KG+LLM 的深度融合
3. 应用与展望
分享嘉宾|王昊奋 同济大学 OpenKG TOC轮值主席 特聘研究员
编辑整理|莫观德
内容校对|李瑶
出品社区|DataFun
01
人工智能的发展历程从早期的专家系统到统计学习、深度学习,再到如今的大模型,始终是数据驱动的。
1. 实现数据智能的两种方式
实现数据智能有两种方式,即专家系统与统计学习。二者在数据来源、知识表示、应用场景等方面存在显著差异,同时也面临不同的瓶颈。
专家系统以符号知识为核心,依赖专家经验对多源异构数据进行人工治理与形式化组织。数据来源多样(如文档、规则库等),但形态复杂且治理困难。专家需将隐性知识(如经验、逻辑规则)转化为机器可理解的符号化表示(如规则树、知识图谱),这一过程面临两大痛点:
知识外化困难:专家知识高度隐性且难以结构化表达,导致知识体系庞杂且更新缓慢;
信息损失严重:符号化过程易丢失上下文语义与关联性知识,仅能保留显性逻辑片段。
专家系统的智能表现为单点推理能力,适用于逻辑链条长、规则明确的复杂场景(如医疗诊断、工业控制)。然而,其局限性显著:
知识获取成本高:依赖少数专家手动构建知识库,周期长且难以规模化;
泛化能力弱:规则系统难以应对动态变化的场景,人机交互复杂度高。
统计学习(含深度学习与大模型)以海量标注数据为基础,通过拟合数据分布挖掘内部模式。其核心优势在于:
特征自动化提取:深度学习通过多层非线性变换,从原始数据中自动学习高阶表征;
模式内蕴性增强:大模型(如 GPT、BERT)利用预训练技术,可捕获跨任务通用语义模式。
统计学习推动了人工智能从点状任务(如图像分类)向面状任务(如多模态理解)的扩展,但其仍面临以下挑战:
数据依赖性强:需高质量标注数据支撑,人工标注成本高昂(如 RLHF 阶段需专业标注);
迁移与泛化不足:模型在跨领域、跨任务场景中易受分布偏差影响,需额外微调与领域适配;
推理可解释性差:黑箱模型难以追溯决策逻辑,在医疗、法律等高可靠性场景中受限。
因此,如何将数据驱动与知识驱动相结合成为关键。
随着推理模型的发展,双系统理论逐渐被人们所熟知。
双系统理论认为人类的认知和决策过程存在两套系统:
系统一(快思考):负责直觉和快速决策。
系统二(慢思考):适合复杂计算和需要深思熟虑的任务。
通过双系统的协同,可以实现感知、认知和决策的一体化智能。
人工智能的演进始终伴随着对人类认知机制的模仿与突破。双系统理论(Dual Process Theory)为这一探索提供了重要启示:系统 1(直觉型快思考)与系统 2(逻辑型慢思考)的协同,恰与当前知识图谱与大语言模型的融合方向不谋而合。
系统 1:依托预训练大模型的快速响应能力,借助海量先验知识,能够实现零样本/小样本学习,在模式匹配与上下文泛化方面优势显著。然而,单纯依赖系统1,易产生“幻觉”,逻辑推理碎片化,可解释性差。
系统 2:基于知识图谱的结构化符号推理,通过显式逻辑链条,可支持复杂计算与可解释决策,适合多跳推理与因果分析。但存在知识更新滞后的问题,在动态场景中适应性较弱,推理效率也会受限于图谱规模。
将知识图谱与大模型结合,即神经符号AI系统,可有效缓解大模型幻觉问题,细化语义处理,增强上下文理解与逻辑推理能力。
基于上述对知识图谱与大语言模型协同重要性的理解,接下来探讨如何实现二者的深度融合。
为实现 KG+LLM 的高效协同,当前技术探索聚焦于五大方向。
模型微调(Fine-tuning):利用 KG 三元组与推理链数据优化 LLM 参数,强化其对符号逻辑的理解能力。
检索增强生成(RAG):结合 KG 检索与文本语义匹配,动态补充 LLM 知识缺口,抑制幻觉。
推理模型协同(Large Reasoning Model,LRM):设计多跳推理引擎,协调 LLM 的语义解析与 KG 的路径搜索能力。
知识智能体(Knowledge Agent):构建自主化工作流,实现 KG 与 LLM 的闭环交互与动态知识迭代。
下文将围绕这五大路径深入剖析其技术原理、实践方案与行业应用价值。
提示工程涉及范围广泛,包括指令、示例、思维链等众多方面。本文主题围绕知识图谱,因此重点介绍图谱增强提示。接下来将介绍部分代表性工作。
(1)KG-to-Text:将 KG 重写为高效的文本表述
基于知识图谱的问答是知识图谱领域的一项重要任务,其核心目标是从结构化知识库中检索并推理出精准答案,但这一过程面临两大瓶颈:一是自然语言问题与知识图谱三元组(实体-关系-实体)的映射存在表述差异,继而导致检索偏差;二是多跳推理困难,复杂问题需遍历多步逻辑路径,传统方法依赖人工规则,难以动态适配。
大语言模型虽具备强大的语义理解能力,但其在 KGQA 任务中仍受限于幻觉生成与结构化知识缺失。为此,KG-to-Text 技术应运而生,通过将知识图谱中的结构化三元组转化为自然语言文本,增强大语言模型对知识逻辑的理解能力。
KG-to-Text 增强框架通过检索-重写-回答(Retrieve-Rewrite-Answer)三阶段实现结构化知识到文本的精准转换。
检索(Retrieve): 基于问题语义从 KG 中提取相关三元组或子图(如实体关系链、多跳路径)
重写(Rewrite): 将三元组转换为自然语言描述,保留逻辑关联
模板化生成:预定义句式模板(如“X 的 Y 是 Z”)
微调 LLM 生成:训练 LLM 直接输出流畅文本(如“爱因斯坦提出的理论包括相对论”)
回答(Answer): LLM 基于重写后的文本生成最终答案,同时结合上下文语义补充细节。
实现任务敏感型知识生成,针对复杂问题,通过答案引导机制动态筛选与答案强相关的三元组,避免冗余干扰。使用领域数据微调 LLM,使其生成与任务目标对齐的简洁文本。
采用自迭代语料构建策略,利用 LLM 对生成文本的逻辑校验能力,自动创建图谱-文本对齐语料,解决 KGQA 任务中标注数据稀缺问题,实现 KG-to-Text 模型的闭环训练优化。
(2)KG Structures as Prompt:结合图谱结构
KG Structure as Prompt 将知识图谱的拓扑关系编码为提示模板,提升小模型的推理能力,弥补其参数规模的不足。
知识结构提示融合的核心原理为,将 KG 的子图结构(如实体关系链、多跳路径)转换为文本提示,嵌入模型输入上下文。
拓扑编码:使用图神经网络(GNN)提取子图特征,生成结构化描述;
动态提示:根据问题类型选择模板(因果推理、实体定位等)。
构建轻量化因果推理引擎:
三维评估体系
参数效率:优化提示长度与模型参数量级的关系;
知识泛化:验证跨领域任务(如科学→医学)的迁移能力;
推理速度:确保实时响应(如对话场景需<500ms)。
帕累托最优边界
平衡模型性能与计算成本,动态选择最佳提示策略(如短提示+简单模型 vs. 长提示+复杂模型)
上述技术可有效解决自然语言与结构化知识间的语义对齐问题,而复杂场景下的多跳推理仍需更深入的协同机制,实现可解释的推理链条与动态知识融合。
(3)KG-to-CoT:结合图推理模型生成推理链
通过图推理模型遍历知识图谱中的多跳路径(如“爱因斯坦→提出→相对论→影响→现代物理学”),生成结构化推理链。
基于问题中的实体(如“爱因斯坦”),还可以反向解析图谱中的潜在路径,生成可回溯的推理步骤(如“第一步:爱因斯坦提出相对论;第二步:相对论影响现代物理学”)。从而弥合大模型与知识库的认知鸿沟,提升二者的协同推理能力。
(4)MindMap:结合 KG 综合信息
将图谱检索到的子图(显性事实)与 LLM 内部知识(隐式关联)动态结合,构建联合推理网络。例如,回答“爱因斯坦对量子力学的贡献”时,图谱提供“爱因斯坦-研究-光电效应”路径,LLM 补充“光电效应与量子力学关联”的上下文。
通过提示工程直接嵌入图谱拓扑关系(如实体邻接矩阵),无需微调模型,实现零成本知识增强。
提示工程是融合 KG 技术实现知识增强最简单最直接的方式,其优势在于无需修改模型参数。更进一步,在模型微调过程中,知识图谱也可以发挥重要作用。
①未知知识注⼊(InfuserKI)
将知识图谱中的新实体/关系(如领域专有术语)嵌⼊ LLM,避免与已有知识冲突。
知识探测与筛选:对⽐已知与未知知识,动态选择需注⼊的三元组;
适配器隔离机制:在 Transformer 层插⼊轻量适配器(Adapter),仅训练适配器参数,保留原始 模型权重;
多任务联合训练:联合优化语⾔模型损失、三元组关系分类损失及知识冲突检测损失。
②低资源知识注⼊(GAIL Fine-tuning)
在标注数据稀缺的场景下,利⽤知识图谱⽣成合成数据,优化模型性能。
模板化 SPARQL 扩充:设计多类型查询模板(如单跳、多跳),从 KG 批量采样实例化数据;
对抗数据⽣成:基于 GAIL 框架,驱动 LLM ⽣成⾼拟真问题,结合 PPO 算法稳定训练;
渐进式增强:将合成数据注⼊轻量模型(如 T5-small),分阶段优化推理能⼒。
在 KG+LLM 的深度融合过程中,⼦图检索与微调⽅法能够显著提升模型的多跳推理能⼒。主要包括以下⼏个关键点:
基于思维链的⼦图构造:采⽤“Think Step by Step”的⽅式,将复杂问题拆解为多个⼦问题,并检索相关的知识图谱⼦图,从⽽增强推理链的可解释性。在检索过程中,模型能够识别关键的中间事实,确保推理链的逻辑性和准确性。
优化输⼊⽅式,降低 Token 消耗:传统 KG 的三元组表示可能存在冗余,可采⽤ YAML 或 JSON 等格式进⾏压缩,使得输⼊数据结构完整的同时减少 Token 数量,提⾼ LLM 的计算效率。
多层次增强(实体、关系、⼦图级别):实体级别,提升 KG 中的实体预测能⼒,使得检索和推理更精准;关系级别,加强对关系的推断能⼒,提⾼ KG 知识融合的深度;⼦图级别,优化⼦图构建,确保多跳推理链的完整性和⾼效性。
通过轻量级微调(Tuning),在 KG ⼦图基础上增强检索效果,提⾼推理能⼒。实验表明,子图增强⽅法可使召回率提升 20 个百分点。⼦图增强结合微调⽅法能够有效提升模型在复杂推理任务中的表现,使其在多跳推理、⻓链推理任务中具备更⾼的准确性和召回率。
在 KG+LLM 融合过程中,实现符号知识表征与隐式知识表征的对⻬,是提升推理能⼒的重要环节。
显式知识对⻬,通过三元组(头实体 + 关系 + 尾实体)的模式,实现结构化知识的映射。采⽤对⽐学习(Contrastive Learning)⽅法,使头实体和关系的描述构成输⼊,⽽尾实体的描述作为预测⽬标,以此促进语义对⻬。 采用共享参数的⼤模型⽤于构建头实体、关系实体、尾实体的语义表示,并通过正负样本构造对⽐损失,优化知识嵌⼊。
另一方面,基于包括指令、头实体描述、关系描述在内的 token 输入,让模型学习结构化知识,预测尾实体描述,实现隐式知识的对齐。
结合显式与隐式知识对齐,微调后的模型在⽣成式知识推理任务上有显著提升。相似度矩阵显示,优化后头尾实体的区分度显著提⾼,从原本的混乱状态变为清晰的知识结构。
接下来,将围绕知识图谱增强检索,以及轻量化和个性化 GraphRAG 技术展开讨论。
检索增强⽣成(Retrieval-Augmented Generation, RAG)经历了多个发展阶段,从基础检索到复杂流程编排,不断优化检索效率和⽣成质量。其演进过程可以归纳为以下⼏个关键阶段:
Naive RAG:遵循索引-检索-⽣成三步流程。
Advanced RAG:结合检索前优化(如查询改写、查询路由)、检索后优化(如重排、过滤、压缩)等技术提升检索效果。
Modular RAG:对算⼦进行抽象和模块化组装,实现流程编排。
在 RAG 的实现过程中,知识图谱的引导至关重要。
图谱增强检索的关键在于对问题的分解,KELDaR 这一工作正是聚焦于此。基于问题复杂度分类构建分解树(Decomposition Tree),将复杂问题拆解为多步推理结构,各步骤在知识图谱上执行原子检索。并采用高效原子检索策略,快速定位相关⼦图,同时扩展候选子图范围,从而优化知识图谱检索效率。
RGR-KBQA 这项工作的重点则是结合逻辑形式减少模型幻觉问题。通过知识引导的关系链检索,增强逻辑形式生成的相关性和细粒度性。并通过微调⼤模型,优化逻辑形式的⽣成与检索的协同作⽤。结合对⽐学习(Contrastive Learning),在语义相似度基础上优化实体和关系的匹配。在解码阶段,动态校准生成结果,提升逻辑形式的准确性与知识⼀致性。
图结构存在一些天然的优势,例如具有更强的复杂推理能力,更好的可解释性、知识表达与关联性,以及更灵活的知识源集成能力,可以为大模型落地提供关键支撑。因此,GraphRAG 已成为业界前沿探索方向,核心议题包括图推理能力增强、图结构化知识表示、高效的图信息检索以及利用图上知识进行校验等等。
传统 GraphRAG 计算开销⼤、查询速度慢,为此,优化⽅案主要围绕轻量化构建与路径优化展开。
第一个思路是仅构建核心图。首先,基于 KNN 图的中⼼性筛选核心文本块,构建⻣架,减小图规模。另外,利用文本-关键词构建⼆分图,将关键词作为候选实体,共现关系作为知识表征,同时保留原始文本语义信息以避免信息损失。在检索时形成双通道形式,融合知识图谱骨架和二分图的局部子图信息,以保证大模型的生成质量。
另一思路是对路径剪枝。仅索引关键路径,避免对所有路径进⾏索引,以降低存储与计算成本。结合 Streaming 裁剪策略,基于可靠性排序,提⾼⻓⽂本情况下的⽣成准确性,缓解“中间信息丢失”问题。该优化⽅案在保留图结构优势的同时,⼤幅提升了查询效率、计算开销控制能⼒,增强了 LLM ⽣成的准确性与连贯性。
个性化 GraphRAG 旨在通过⻓期记忆建模与动态记忆管理提升检索增强⽣成的效果,使其更加贴合⽤户的个性化需求。
其中,HippoRAG2 模拟了⼈类的⻓期记忆,结合个性化 PageRank 实现信息筛选与排序。通过引入短语节点和段落节点,模拟人类大脑的密集-稀疏编码机制,从而更好地整合概念和上下文。
EMG-RAG,通过分层结构定义不同类型的记忆,并实现了动态管理,提⾼检索效率。 利用强化学习手段,学习在图上选择相关记忆,动态调整记忆选择策略,根据⽤户偏好优化记忆筛选过程。
在 GraphRAG 的基础上,DeepSeek 的出现,带来了大型推理模型的新突破,也为知识图谱与大模型的融合提供了新的契机。
DeepSeek 的问世到升级过程,也伴随着从大语言模型到多模态模型,再到推理模型的演化。
从训练时计算到测试时计算,使得思考问题的中间步骤成为可能,模型在回答之前会“推理”并探索可能的解决方案,因此更多复杂问题有望得到解决。
在 DeepSeek 及其推理范式的基础上,我们可以进一步优化 RAG 的检索过程,使其更具动态性和适应性。其中,Chain of Retrieval(CoR) 取代了传统的 Chain of Thought(CoT),使检索和推理相结合,实现更高效的知识获取和决策支持。
通过拒绝采样⽣成多个⼦查询和对应的⼦答案,并从多个候选⽅案中优化检索路径。
结合贪⼼搜索(Greedy)、最优选择(Best-of-M)、树搜索(Tree Search)等测论,提⾼动态检索调整的精准度。
动态代理检索机制:
让 LLM 能够根据当前任务状态⾃动决定何时检索、检索哪些知识、检索多少次,形成⾃适应查询机制。
结合多轮检索补充知识缺⼝,增强推理的完整性。
Reason-in-Documents 知识精炼
提取⽂档中的核⼼信息,减少冗余和噪声,提⾼检索内容的可信度。
结合上下⽂优化推理链路,避免逻辑断裂,使⽣成结果更准确、更具连贯性。
结合强化学习⽅法,优化算⼦规划和知识图推理,可以提升信息检索和推理的精准度。
通过强化学习建模,定义 Agent-Environment-State-Action 结构,使 LLM 能够根据知识库(KB)环境动态调整推理路径。
采⽤逻辑形式⽣成⽅式,让 LLM 以类似于编程式的⽅法,与 KB 交互,从⽽提⾼结构化数据的理解与推理能⼒。
⽀持查询(Query)、聚合(Merge)、抽取(Extract)、⽐较(Compare) 等多种算⼦操作,按需执⾏算⼦规划,提⾼检索和推理效率。
Thinking on Graph:基于知识图的动态推理
在实体和关系层⾯进⾏推理,⽽不仅仅是算⼦层⾯,使推理过程更加贴近真实世界的知识结构。
通过 KG 连接⽂档实体,利⽤⽂档上下⽂增强知识⽚段的关联性,解决结构化信息缺失问题。
交错式执⾏:图检索扩展候选实体路径,不断拓展可能的答案来源。上下⽂检索筛选⾼相关实体,反向优化推理路径。两者交错执⾏,模拟⼈类逐步推理过程,提⾼答案的准确性和置信度。
在 RAG 体系中,为了在检索与推理之间实现最优平衡,可以通过路径搜索和蒙特卡罗树搜索(MCTS)进行优化,从而提升检索效率和推理准确性。
路径搜索:最优检索决策
采⽤模仿学习(Imitation Learning),让模型学习如何以最小的检索代价(如减少检索次数)⾼效分解复杂问题。
通过后校准(Chain of Calibration),在⼆岔决策(依赖⼤模型 vs. 依赖外部知识)中进⾏验证,优化路径选择,使模型更清楚⾃身知识边界。
蒙特卡罗树搜索(MCTS)与知识问答结合
结合选择、扩展、模拟、反向传播四个核⼼步骤,优化知识检索与推理路径。
在评估与模拟阶段,设计分布式奖励机制,引导模型关注关键元素,并逐步解决⼦问题。
通过远程监督,将问题映射⾄逻辑形式(如 SPARQL 数据),优化中间过程,提⾼低资源场景下的推理能力。
在路径搜索与蒙特卡罗树搜索的基础上,进一步优化知识检索与推理过程,不仅关注如何高效检索,还引入行为预测,通过动态决策增强推理能力。
行为预测:动态触发 Agent 进⾏按需检索与执⾏
通过 special token 设计,预测下⼀步操作,如是否执⾏ Web Search、是否编写代码,从⽽触发不同的 Agent。
利用 Mind Map 构建逻辑关系,增强复杂问题的演绎推理能力,并在此过程中形成专业分工,避免统⼀使⽤大模型处理所有任务。
目标分解与执行:专⽤模型的优化
⾏为预测不仅涉及目标的分解,还包括具体的,如推理、查询分解、发⾏⽣成、检索等操作。
采⽤蒙特卡罗树搜索(MCTS),模拟不同的动作序列,收集带有⻓期奖励的训练数据,解决模型训练中的数据稀缺问题。
通过动态判定,优化“何时检索”与“何时⽣成查询”等关键决策,实现专⽤模型与图模型的融合。
接下来聚焦知识智能体。
KG-Agent
结构化数据⼯具箱:为⼤模型集成图谱操作⼯具集(如实体查询、关系推理、⼦图剪枝),⽀持直接执⾏结构化操作指令。
代码指令微调:基于知识图谱⽣成与推理链对应的程序代码(如 SPARQL 查询逻辑),构建代码指令训练数据,使轻量模型具备复杂推理能⼒。
⾃主迭代引擎:动态记忆模块记录历史状态与中间结果,结合⼯具选择机制与图谱执⾏器,实现“假设⽣成-图谱验证-结果修正”的闭环推理。
智能体⼯作流增强
DAG ⼯作流:将有向⽆环图(DAG)作为任务流程框架,⽀持⼦任务并⾏执⾏与复杂依赖关系建模(如法律案例解析中的“案情分析→法条匹配→判例验证”多线程流程)。
可验证约束机制:结构相似性验证,对⽐规划路径与历史成功案例的 DAG 拓扑,过滤⽆效分⽀;路径可达性检测,实时校验⼦任务执⾏条件(如前置数据就绪状态),阻断逻辑不可达的推理链。
知识反馈调优:根据⽤户查询与反馈动态增删知识图谱三元组(如⽤户偏好“仅关注某领域⽂献”),优化图谱结构⽽非 LLM 参数。
轻量化图谱编辑:采⽤启发式算法(如基于中心性的三元组筛选)实现⾼效更新,避免全图谱重构的计算开销。
双⽬标优化框架:联合优化个性化知识检索概率与知识增强推理概率,确保逻辑⼀致性(如医疗诊断中个性化病史与通⽤医学知识的平衡)。
前文系统解析了 KG+LLM 协同的技术框架与智能体演进路径,在这一章节中将展示如何通过知识增强与复杂推理结合,解决法律、金融、医疗等领域的核心痛点,并对未来发展方向进行展望。
核⼼挑战:法律条⽂时效性强、案例推理复杂、逻辑链需严格可追溯。
技术⽅案:
混合专家模型(MoE):动态路由⽹络根据输⼊特征(如案件类型)激活对应法律专家模块;
多智能体协作:
法律助理:检索法条与案例实体;
研究员:扩展关联判例与司法解释;
资深律师:研判法律适⽤性;
编辑员:⽣成合规答案并校验逻辑。
动态知识维护:对接裁判⽂书⽹等官⽅源,实时更新法律条⽂与典型案例关联。
核⼼挑战:市场信息⾼频更新、⻛险信号隐含于复杂关联⽹络。
技术⽅案:
查询分解与 DAG 规划:将复杂问题(如“某企业供应链⻛险”)拆解为⼦查询链,明确依赖关系;
时间敏感加权:引⼊ 72 小时衰减函数,优先处理近期新闻、股价波动等信号;
动态自适应检索:根据中间结果实时调整后续检索策略(如突发舆情触发关联企业排查)。
核⼼挑战:低幻觉容忍、需模拟医⽣认知路径(假设-验证循环)。
技术⽅案:
双专家推理框架:
推理专家:⽣成诊断假设链(如“症状 A→疾病 B→检查 C”);
反思专家:基于医学知识库验证逻辑合理性,过滤⽆效路径;
认知路径对⻬:通过监督微调(SFT)与强化学习(RL)训练,使 LLM 推理过程逼近专家决策模式。
KG+LLM 的协同框架现阶段聚焦三⼤核⼼问题的突破:
抑制幻觉与知识冲突:通过结构化知识约束与⼤模型泛化能⼒的平衡,减少不可信输出。
数据组织与检索优化:增强⾮结构化数据的图谱化表征,提升检索效率与语义对⻬精度。
复杂推理能⼒扩展:融合多跳逻辑链与动态路径规划,突破单⼀步骤推理局限。
更进一步,还有很多问题值得研究,例如,能否基于 KG+LLM 深度融合构建可信智能体系统,实现零幻觉、⾼可靠性的实时响应;针对⾦融、医疗等⾼要求领域,设计轻量化、可验证的推理引擎,实现场景⾃适应协同。
在探索 KG-LLM 协同的进程中,OpenKG 作为开放知识图谱生态的核心枢纽,通过资源共享与社区协作机制,为突破技术瓶颈提供了重要支撑。
OpenKG 致力于推动知识图谱数据的开放共享,整合各领域知识图谱资源,让知识图谱能够被更广泛地利用。
未来,将进一步拓展应用场景,加强技术研发,同时持续开展社区建设,构建大模型时代下全球领先的知识图谱开源生态,推动知识要素的高效流通与持续增值。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-07-17
2025-01-02
2024-08-13
2025-01-03
2024-07-11
2024-08-27
2024-06-24
2024-07-13
2024-07-12
2024-06-10
2025-04-20
2025-04-15
2025-04-09
2025-03-29
2025-02-13
2025-01-14
2025-01-10
2025-01-06