摘要:导读在人工智能领域,随着大模型的迅速发展,其对知识图谱的作用引发了广泛关注。知识图谱作为一种结构化的知识表示方式,能够有效增强大模型的推理能力和可解释性,弥补其推理能力单一和幻觉问题。在数据驱动与知识驱动的结合中,知识图谱提供了一种可控、可解释的方式,帮助大模
导读在人工智能领域,随着大模型的迅速发展,其对知识图谱的作用引发了广泛关注。知识图谱作为一种结构化的知识表示方式,能够有效增强大模型的推理能力和可解释性,弥补其推理能力单一和幻觉问题。在数据驱动与知识驱动的结合中,知识图谱提供了一种可控、可解释的方式,帮助大模型实现更高级的智能。本文将深入探讨知识图谱与大模型的深度融合路径,包括提示工程、模型微调、检索增强、推理协同等方面的应用,通过这些融合,将有助于构建下一代可信的智能系统,为实现通用人工智能奠定基础。
今天的分享会围绕以下三个方面展开:
1. KG+LLM 概述
2. KG+LLM 的深度融合
3. 应用与展望
分享嘉宾|王昊奋 同济大学 OpenKG TOC轮值主席 特聘研究员
编辑整理|莫观德
内容校对|李瑶
出品社区|DataFun
01
人工智能的发展历程从早期的专家系统到统计学习、深度学习,再到如今的大模型,始终是数据驱动的。
1. 实现数据智能的两种方式
实现数据智能有两种方式,即专家系统与统计学习。二者在数据来源、知识表示、应用场景等方面存在显著差异,同时也面临不同的瓶颈。
专家系统以符号知识为核心,依赖专家经验对多源异构数据进行人工治理与形式化组织。数据来源多样(如文档、规则库等),但形态复杂且治理困难。专家需将隐性知识(如经验、逻辑规则)转化为机器可理解的符号化表示(如规则树、知识图谱),这一过程面临两大痛点:
知识外化困难:专家知识高度隐性且难以结构化表达,导致知识体系庞杂且更新缓慢;信息损失严重:符号化过程易丢失上下文语义与关联性知识,仅能保留显性逻辑片段。专家系统的智能表现为单点推理能力,适用于逻辑链条长、规则明确的复杂场景(如医疗诊断、工业控制)。然而,其局限性显著:
知识获取成本高:依赖少数专家手动构建知识库,周期长且难以规模化;泛化能力弱:规则系统难以应对动态变化的场景,人机交互复杂度高。统计学习(含深度学习与大模型)以海量标注数据为基础,通过拟合数据分布挖掘内部模式。其核心优势在于:
特征自动化提取:深度学习通过多层非线性变换,从原始数据中自动学习高阶表征;模式内蕴性增强:大模型(如 GPT、BERT)利用预训练技术,可捕获跨任务通用语义模式。统计学习推动了人工智能从点状任务(如图像分类)向面状任务(如多模态理解)的扩展,但其仍面临以下挑战:
数据依赖性强:需高质量标注数据支撑,人工标注成本高昂(如 RLHF 阶段需专业标注);迁移与泛化不足:模型在跨领域、跨任务场景中易受分布偏差影响,需额外微调与领域适配;推理可解释性差:黑箱模型难以追溯决策逻辑,在医疗、法律等高可靠性场景中受限。因此,如何将数据驱动与知识驱动相结合成为关键。
随着推理模型的发展,双系统理论逐渐被人们所熟知。
双系统理论认为人类的认知和决策过程存在两套系统:
系统一(快思考):负责直觉和快速决策。系统二(慢思考):适合复杂计算和需要深思熟虑的任务。通过双系统的协同,可以实现感知、认知和决策的一体化智能。
人工智能的演进始终伴随着对人类认知机制的模仿与突破。双系统理论(Dual Process Theory)为这一探索提供了重要启示:系统 1(直觉型快思考)与系统 2(逻辑型慢思考)的协同,恰与当前知识图谱与大语言模型的融合方向不谋而合。
系统 1:依托预训练大模型的快速响应能力,借助海量先验知识,能够实现零样本/小样本学习,在模式匹配与上下文泛化方面优势显著。然而,单纯依赖系统1,易产生“幻觉”,逻辑推理碎片化,可解释性差。系统 2:基于知识图谱的结构化符号推理,通过显式逻辑链条,可支持复杂计算与可解释决策,适合多跳推理与因果分析。但存在知识更新滞后的问题,在动态场景中适应性较弱,推理效率也会受限于图谱规模。将知识图谱与大模型结合,即神经符号AI系统,可有效缓解大模型幻觉问题,细化语义处理,增强上下文理解与逻辑推理能力。
基于上述对知识图谱与大语言模型协同重要性的理解,接下来探讨如何实现二者的深度融合。
02KG+LLM 的深度融合:如何结合 KG 增强 LLM 的推理能力为实现 KG+LLM 的高效协同,当前技术探索聚焦于五大方向。
下文将围绕这五大路径深入剖析其技术原理、实践方案与行业应用价值。
提示工程涉及范围广泛,包括指令、示例、思维链等众多方面。本文主题围绕知识图谱,因此重点介绍图谱增强提示。接下来将介绍部分代表性工作。
(1)KG-to-Text:将 KG 重写为高效的文本表述
基于知识图谱的问答是知识图谱领域的一项重要任务,其核心目标是从结构化知识库中检索并推理出精准答案,但这一过程面临两大瓶颈:一是自然语言问题与知识图谱三元组(实体-关系-实体)的映射存在表述差异,继而导致检索偏差;二是多跳推理困难,复杂问题需遍历多步逻辑路径,传统方法依赖人工规则,难以动态适配。
大语言模型虽具备强大的语义理解能力,但其在 KGQA 任务中仍受限于幻觉生成与结构化知识缺失。为此,KG-to-Text 技术应运而生,通过将知识图谱中的结构化三元组转化为自然语言文本,增强大语言模型对知识逻辑的理解能力。
KG-to-Text 增强框架通过检索-重写-回答(Retrieve-Rewrite-Answer)三阶段实现结构化知识到文本的精准转换。
检索(Retrieve): 基于问题语义从 KG 中提取相关三元组或子图(如实体关系链、多跳路径)重写(Rewrite): 将三元组转换为自然语言描述,保留逻辑关联模板化生成:预定义句式模板(如“X 的 Y 是 Z”)微调 LLM 生成:训练 LLM 直接输出流畅文本(如“爱因斯坦提出的理论包括相对论”)回答(Answer): LLM 基于重写后的文本生成最终答案,同时结合上下文语义补充细节。实现任务敏感型知识生成,针对复杂问题,通过答案引导机制动态筛选与答案强相关的三元组,避免冗余干扰。使用领域数据微调 LLM,使其生成与任务目标对齐的简洁文本。
采用自迭代语料构建策略,利用 LLM 对生成文本的逻辑校验能力,自动创建图谱-文本对齐语料,解决 KGQA 任务中标注数据稀缺问题,实现 KG-to-Text 模型的闭环训练优化。
(2)KG Structures as Prompt:结合图谱结构
KG Structure as Prompt 将知识图谱的拓扑关系编码为提示模板,提升小模型的推理能力,弥补其参数规模的不足。
知识结构提示融合的核心原理为,将 KG 的子图结构(如实体关系链、多跳路径)转换为文本提示,嵌入模型输入上下文。
拓扑编码:使用图神经网络(GNN)提取子图特征,生成结构化描述;动态提示:根据问题类型选择模板(因果推理、实体定位等)。构建轻量化因果推理引擎:
三维评估体系参数效率:优化提示长度与模型参数量级的关系;知识泛化:验证跨领域任务(如科学→医学)的迁移能力;推理速度:确保实时响应(如对话场景需帕累托最优边界平衡模型性能与计算成本,动态选择最佳提示策略(如短提示+简单模型 vs. 长提示+复杂模型)上述技术可有效解决自然语言与结构化知识间的语义对齐问题,而复杂场景下的多跳推理仍需更深入的协同机制,实现可解释的推理链条与动态知识融合。
(3)KG-to-CoT:结合图推理模型生成推理链
通过图推理模型遍历知识图谱中的多跳路径(如“爱因斯坦→提出→相对论→影响→现代物理学”),生成结构化推理链。
基于问题中的实体(如“爱因斯坦”),还可以反向解析图谱中的潜在路径,生成可回溯的推理步骤(如“第一步:爱因斯坦提出相对论;第二步:相对论影响现代物理学”)。从而弥合大模型与知识库的认知鸿沟,提升二者的协同推理能力。
(4)MindMap:结合 KG 综合信息
将图谱检索到的子图(显性事实)与 LLM 内部知识(隐式关联)动态结合,构建联合推理网络。例如,回答“爱因斯坦对量子力学的贡献”时,图谱提供“爱因斯坦-研究-光电效应”路径,LLM 补充“光电效应与量子力学关联”的上下文。
通过提示工程直接嵌入图谱拓扑关系(如实体邻接矩阵),无需微调模型,实现零成本知识增强。
提示工程是融合 KG 技术实现知识增强最简单最直接的方式,其优势在于无需修改模型参数。更进一步,在模型微调过程中,知识图谱也可以发挥重要作用。
①未知知识注⼊(InfuserKI)
将知识图谱中的新实体/关系(如领域专有术语)嵌⼊ LLM,避免与已有知识冲突。
知识探测与筛选:对⽐已知与未知知识,动态选择需注⼊的三元组;适配器隔离机制:在 Transformer 层插⼊轻量适配器(Adapter),仅训练适配器参数,保留原始 模型权重;多任务联合训练:联合优化语⾔模型损失、三元组关系分类损失及知识冲突检测损失。②低资源知识注⼊(GAIL Fine-tuning)
在标注数据稀缺的场景下,利⽤知识图谱⽣成合成数据,优化模型性能。
模板化 SPARQL 扩充:设计多类型查询模板(如单跳、多跳),从 KG 批量采样实例化数据;对抗数据⽣成:基于 GAIL 框架,驱动 LLM ⽣成⾼拟真问题,结合 PPO 算法稳定训练;渐进式增强:将合成数据注⼊轻量模型(如 T5-small),分阶段优化推理能⼒。在 KG+LLM 的深度融合过程中,⼦图检索与微调⽅法能够显著提升模型的多跳推理能⼒。主要包括以下⼏个关键点:
基于思维链的⼦图构造:采⽤“Think Step by Step”的⽅式,将复杂问题拆解为多个⼦问题,并检索相关的知识图谱⼦图,从⽽增强推理链的可解释性。在检索过程中,模型能够识别关键的中间事实,确保推理链的逻辑性和准确性。优化输⼊⽅式,降低 Token 消耗:传统 KG 的三元组表示可能存在冗余,可采⽤ YAML 或 JSON 等格式进⾏压缩,使得输⼊数据结构完整的同时减少 Token 数量,提⾼ LLM 的计算效率。多层次增强(实体、关系、⼦图级别):实体级别,提升 KG 中的实体预测能⼒,使得检索和推理更精准;关系级别,加强对关系的推断能⼒,提⾼ KG 知识融合的深度;⼦图级别,优化⼦图构建,确保多跳推理链的完整性和⾼效性。通过轻量级微调(Tuning),在 KG ⼦图基础上增强检索效果,提⾼推理能⼒。实验表明,子图增强⽅法可使召回率提升 20 个百分点。⼦图增强结合微调⽅法能够有效提升模型在复杂推理任务中的表现,使其在多跳推理、⻓链推理任务中具备更⾼的准确性和召回率。
在 KG+LLM 融合过程中,实现符号知识表征与隐式知识表征的对⻬,是提升推理能⼒的重要环节。
显式知识对⻬,通过三元组(头实体 + 关系 + 尾实体)的模式,实现结构化知识的映射。采⽤对⽐学习(Contrastive Learning)⽅法,使头实体和关系的描述构成输⼊,⽽尾实体的描述作为预测⽬标,以此促进语义对⻬。 采用共享参数的⼤模型⽤于构建头实体、关系实体、尾实体的语义表示,并通过正负样本构造对⽐损失,优化知识嵌⼊。
另一方面,基于包括指令、头实体描述、关系描述在内的 token 输入,让模型学习结构化知识,预测尾实体描述,实现隐式知识的对齐。
结合显式与隐式知识对齐,微调后的模型在⽣成式知识推理任务上有显著提升。相似度矩阵显示,优化后头尾实体的区分度显著提⾼,从原本的混乱状态变为清晰的知识结构。
接下来,将围绕知识图谱增强检索,以及轻量化和个性化 GraphRAG 技术展开讨论。
检索增强⽣成(Retrieval-Augmented Generation, RAG)经历了多个发展阶段,从基础检索到复杂流程编排,不断优化检索效率和⽣成质量。其演进过程可以归纳为以下⼏个关键阶段:
Naive RAG:遵循索引-检索-⽣成三步流程。Advanced RAG:结合检索前优化(如查询改写、查询路由)、检索后优化(如重排、过滤、压缩)等技术提升检索效果。Modular RAG:对算⼦进行抽象和模块化组装,实现流程编排。在 RAG 的实现过程中,知识图谱的引导至关重要。
图谱增强检索的关键在于对问题的分解,KELDaR 这一工作正是聚焦于此。基于问题复杂度分类构建分解树(Decomposition Tree),将复杂问题拆解为多步推理结构,各步骤在知识图谱上执行原子检索。并采用高效原子检索策略,快速定位相关⼦图,同时扩展候选子图范围,从而优化知识图谱检索效率。
RGR-KBQA 这项工作的重点则是结合逻辑形式减少模型幻觉问题。通过知识引导的关系链检索,增强逻辑形式生成的相关性和细粒度性。并通过微调⼤模型,优化逻辑形式的⽣成与检索的协同作⽤。结合对⽐学习(Contrastive Learning),在语义相似度基础上优化实体和关系的匹配。在解码阶段,动态校准生成结果,提升逻辑形式的准确性与知识⼀致性。
图结构存在一些天然的优势,例如具有更强的复杂推理能力,更好的可解释性、知识表达与关联性,以及更灵活的知识源集成能力,可以为大模型落地提供关键支撑。因此,GraphRAG 已成为业界前沿探索方向,核心议题包括图推理能力增强、图结构化知识表示、高效的图信息检索以及利用图上知识进行校验等等。
传统 GraphRAG 计算开销⼤、查询速度慢,为此,优化⽅案主要围绕轻量化构建与路径优化展开。
第一个思路是仅构建核心图。首先,基于 KNN 图的中⼼性筛选核心文本块,构建⻣架,减小图规模。另外,利用文本-关键词构建⼆分图,将关键词作为候选实体,共现关系作为知识表征,同时保留原始文本语义信息以避免信息损失。在检索时形成双通道形式,融合知识图谱骨架和二分图的局部子图信息,以保证大模型的生成质量。
另一思路是对路径剪枝。仅索引关键路径,避免对所有路径进⾏索引,以降低存储与计算成本。结合 Streaming 裁剪策略,基于可靠性排序,提⾼⻓⽂本情况下的⽣成准确性,缓解“中间信息丢失”问题。该优化⽅案在保留图结构优势的同时,⼤幅提升了查询效率、计算开销控制能⼒,增强了 LLM ⽣成的准确性与连贯性。
个性化 GraphRAG 旨在通过⻓期记忆建模与动态记忆管理提升检索增强⽣成的效果,使其更加贴合⽤户的个性化需求。
其中,HippoRAG2 模拟了⼈类的⻓期记忆,结合个性化 PageRank 实现信息筛选与排序。通过引入短语节点和段落节点,模拟人类大脑的密集-稀疏编码机制,从而更好地整合概念和上下文。
EMG-RAG,通过分层结构定义不同类型的记忆,并实现了动态管理,提⾼检索效率。 利用强化学习手段,学习在图上选择相关记忆,动态调整记忆选择策略,根据⽤户偏好优化记忆筛选过程。
在 GraphRAG 的基础上,DeepSeek 的出现,带来了大型推理模型的新突破,也为知识图谱与大模型的融合提供了新的契机。
DeepSeek 的问世到升级过程,也伴随着从大语言模型到多模态模型,再到推理模型的演化。
从训练时计算到测试时计算,使得思考问题的中间步骤成为可能,模型在回答之前会“推理”并探索可能的解决方案,因此更多复杂问题有望得到解决。
(1)检索链规划在 DeepSeek 及其推理范式的基础上,我们可以进一步优化 RAG 的检索过程,使其更具动态性和适应性。其中,Chain of Retrieval(CoR) 取代了传统的 Chain of Thought(CoT),使检索和推理相结合,实现更高效的知识获取和决策支持。
结合强化学习⽅法,优化算⼦规划和知识图推理,可以提升信息检索和推理的精准度。
在 RAG 体系中,为了在检索与推理之间实现最优平衡,可以通过路径搜索和蒙特卡罗树搜索(MCTS)进行优化,从而提升检索效率和推理准确性。
在路径搜索与蒙特卡罗树搜索的基础上,进一步优化知识检索与推理过程,不仅关注如何高效检索,还引入行为预测,通过动态决策增强推理能力。
接下来聚焦知识智能体。
前文系统解析了 KG+LLM 协同的技术框架与智能体演进路径,在这一章节中将展示如何通过知识增强与复杂推理结合,解决法律、金融、医疗等领域的核心痛点,并对未来发展方向进行展望。
核⼼挑战:法律条⽂时效性强、案例推理复杂、逻辑链需严格可追溯。
技术⽅案:
核⼼挑战:市场信息⾼频更新、⻛险信号隐含于复杂关联⽹络。
技术⽅案:
核⼼挑战:低幻觉容忍、需模拟医⽣认知路径(假设-验证循环)。
技术⽅案:
双专家推理框架:推理专家:⽣成诊断假设链(如“症状 A→疾病 B→检查 C”);反思专家:基于医学知识库验证逻辑合理性,过滤⽆效路径;认知路径对⻬:通过监督微调(SFT)与强化学习(RL)训练,使 LLM 推理过程逼近专家决策模式。KG+LLM 的协同框架现阶段聚焦三⼤核⼼问题的突破:
抑制幻觉与知识冲突:通过结构化知识约束与⼤模型泛化能⼒的平衡,减少不可信输出。数据组织与检索优化:增强⾮结构化数据的图谱化表征,提升检索效率与语义对⻬精度。复杂推理能⼒扩展:融合多跳逻辑链与动态路径规划,突破单⼀步骤推理局限。更进一步,还有很多问题值得研究,例如,能否基于 KG+LLM 深度融合构建可信智能体系统,实现零幻觉、⾼可靠性的实时响应;针对⾦融、医疗等⾼要求领域,设计轻量化、可验证的推理引擎,实现场景⾃适应协同。
在探索 KG-LLM 协同的进程中,OpenKG 作为开放知识图谱生态的核心枢纽,通过资源共享与社区协作机制,为突破技术瓶颈提供了重要支撑。
OpenKG 致力于推动知识图谱数据的开放共享,整合各领域知识图谱资源,让知识图谱能够被更广泛地利用。
未来,将进一步拓展应用场景,加强技术研发,同时持续开展社区建设,构建大模型时代下全球领先的知识图谱开源生态,推动知识要素的高效流通与持续增值。
以上就是本次分享的内容,谢谢大家。
来源:DataFunTalk