技术前沿之Graph+Agent:Chat2Graph如何重构GraphRAG范式?


技术前沿之Graph+Agent:Chat2Graph如何重构GraphRAG范式?

仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接

▍作者:范志东,蚂蚁图计算开源负责人、图计算布道师
引言
去年年底,我在《2024年度Graph+AI开源探索思考》一文中,细致拆解并总结了TuGraph在「Graph+AI」领域的开源技术实践经验。文中引用了一段业内不成文的观点:「23年卷SFT,24年卷RAG,25年卷智能体」,并将「GraphNative」的理念引入到智能体的设计中。
借助符号主义的可解释性优势,全面增强智能体推理能力。同时增强的智能体架构,可以更好地帮助用户降低用图门槛,实现更智能的用图体验,实现Graph与AI的双向增益。这正是「图原生智能体」的基本设计原则。

项目文档:https ://chat2graph. vercel.app/
在Chat2Graph中,通过多个图领域专家的动态协作,而非固定链路,便可以完成GraphRAG链路中知识图谱的抽取、存储、检索的过程。Chat2Graph在提升GraphRAG链路灵活性的同时,也将解决的问题域从传统的Q&A扩展到智能交互,相当于用智能体的方式对GraphRAG范式进行了重构。那么,其重构的内在逻辑是什么,这仍需要从「人工智能的三大流派」说起。
在人工智能研究领域,「符号主义」、「连接主义」、「行为主义」各有所长。「符号主义」工于数理逻辑,基于显式的人工规则,获得高度可解释性的推理效果。「连接主义」长于自主学习,通过大规模神经网络并行计算,以模型权重的形式固化隐式的知识。「行为主义」强调环境反馈,旨在以感知进化的方式让行为智能化。
然而,基于人工规则的「符号主义」的智能水平受限于规则的规模,而以概率统计为基础的「连接主义」在推理时的幻觉总是不可避免,同时「行为主义」从环境中学习的能力很难有效地迁移泛化。单项能力的不足反而为优势互补提供了空间,比如大模型与强化学习结合的推理模型(LRM)、环境反馈赋能的大模型智能体(Agent)等。
我们都知道GraphRAG其实是对RAG链路中「知识库」的改进技术,它以知识图谱而非向量的形式组织模型外的知识信息结构,属于典型的知识图谱与大模型的技术结合案例,回归到思想本源,也就是「符号主义」与「连接主义」的融合。
同时,基于论文《ATheoryofFormalismsforRepresentingKnowledge》(链接:https ://arxiv. org/abs/2412. 11855)的关键结论:“在知识表示上,符号主义与连接主义具有等价性,并且可以相互借鉴”,这进一步地提升了我们对「符号主义」与「连接主义」融合的价值认知和技术决策信心。

更进一步地,如果将GraphRAG看做“符号⋈连接”的产物(Graph⋈LLM),将Agent看做“连接⋈行为”的产物(LLM⋈环境反馈),那么继续推导“符号⋈连接⋈行为”这三方结合的产物:「Graph⋈LLM⋈环境反馈」,简而化之,即Graph⋈Agent。没错,这正是我们这次要探讨的主题!
要弄清Graph⋈Agent的核心内涵和价值归宿,仍要从Graph⋈LLM开始,我们需要从「历史唯物主义」的角度重新审视GraphRAG技术的演进过程,弄清每一次技术「变革」的背后,要解决的核心的「矛盾」是什么。
从2022年底ChatGPT正式发布,提供给用户的最初界面便是「自然语言问答」,后续我们统一简称为Q&A。由于相信ScalingLaw,因此我们相信LLM中的大规模参数「压缩」了「世界知识」,既而期望通过「提示工程」优化表达,逐步打开信息的「潘多拉魔盒」。至于如何优化表达,成为合格的「提示工程师」,可以参考之前这篇文章《访谈李继刚:从哲学层面与大模型对话》(链接:https ://zhuanlan. zhihu.com/p/7494277954)。
然而事实往往不尽如人意,大家都意识到了LLM至今都无法回避的问题——幻觉。为了缓解LLM幻觉,各路“诸侯”是「十八般武艺」全往上招呼:模型微调、查询重写、检索增强、向量嵌入、重排序、知识图谱、智能体技术,一股脑得全往上怼,只为让评测效果提升几个百分点,逐步形成了如今面向「知识问答」的AI工程链路形态。从某种意义的说,LLM幻觉问题为这两年AI工程链路的持续改进提供了原始动力,真可谓「成也萧何,败也萧何」。
2023年,也就是ChatGPT发布后的第二年,私域知识的问答诉求与日俱增,借助于SFT对LLM进行后训练的方式,可以快速为LLM补充私域知识,扩展其知识边界。在这个历史时期,用户的知识图谱数据还是通过传统的数据工程手段采集、清洗、加工,存储在图数据库系统内。如果希望借助LLM通过自然语言的方式访问这些图数据,最直接的手段就是将自然语言通过LLM直接翻译为图查询语言(GQL),既而访问图数据库获取数据。为此,我们还专门训练了Text2GQL模型,同时解决了GQL语料不足的自动合成问题。具体可以参考文章《Awesome-Text2GQL:从语料生成到TuGraph-DBChatBot》。
本质上说,Text2GQL可以看作GraphRAG的初级形态。然而,以LLM微调后训练为基础的技术方案,仍然无法逃脱私域知识语料无法实时更新的羁绊。
2024年,以向量知识库为数据底座,结合ICL(InContextLearning)的RAG技术全面爆发,通过外挂知识库组件避免了私域知识更新困难的问题,相比于微调在工程实现上具备了更高的灵活度,行业繁荣程度可参考我去年底整理的《RAG七十二式:2024年度RAG清单》。
然而,基于向量表征的知识管理方案,忽视了文本之间的事实关联信息,导致文档召回出现遗漏、噪声、错误、矛盾等一系列问题(链接:https ://arxiv. org/abs/2401. 05856)。
相比而言,图数据结构就更适合描述事物间的复杂关联信息,因此集成图数据库作为知识库底座,已成必然趋势。同时为了让图数据库能与RAG框架无缝集成,必须引入知识图谱语义层支持「文档载入」、「文档召回」等能力,形成与向量数据库底座兼容的通用RAG框架。
构建通用RAG框架仅仅是第一步,增强RAG问答效果才是核心。微软的GraphRAG方案(链接:https ://github. com/microsoft/graphrag)爆火,引爆了「LLM+KG」热潮。同时其「社区摘要」的理念也为GraphRAG链路中知识图谱的处理带来了新思路——借助于图算法,可以从更高的维度丰富知识图谱语义。
图算法的引入,为知识图谱引入了新的图特征信息,相当于在原始知识图谱层之上新增了知识层次。比如引入社区发现算法构建社区摘要知识,引入PPR算法挖掘重要节点信息等。这相当于构建了知识分层的架构,属于对知识图谱的「垂直扩展」。
相对应的,便是对知识图谱的「水平扩展」,最直接的莫过于引入新的知识图谱数据,比如文档结构图谱。
文档结构的引入提升了知识图谱中的文档溯源能力,以提供更完备的GraphRAG上下文。当然,除此之外仍有诸多更灵活的知识扩充方法,比如知识图谱增强技术中常用的的消歧、链指、融合等方法也可以看做广义上的知识扩充手段。
知识图谱的分层与扩展在强化了知识库能力的同时,也对知识召回的能力提出了更进一步的要求。我们可以清晰地看到,GraphRAG的知识召回链路也从单一的「关键词检索」,到「向量检索」,再到「混合检索」的逐步演进路径。
尤其是在引入了「意图识别+Text2GQL」的「文本驱动」检索链路后,GraphRAG不光整合了Text2GQL技术,还对智能体技术提出了新的要求。因为我们发现一个事实:依赖简单的「意图识别」、「查询重写」手段已不足以解决复杂的Q&A问题,通过智能体对用户问题拆分、规划已开始提上日程。
在另一个维度上,单一的外挂知识库方法也开始不能满足用户日益增长的查询诉求了。用户不再满足于异步的知识库文档加载延迟,而是需要调用工具实时地感知开放的外部世界知识,AgenticRAG(链接:https ://arxiv. org/abs/2501. 09136)自然也就应运而生。
AgenticRAG引入了工具调用,将RAG从原本的「检索增强」,逐步过渡到「工具增强」形态,RAG的原生含义开始被默默「变革」。

结合混合检索中对用户问题「规划拆分」,以及AgenticRAG中「工具使用」对智能体关键能力的诉求,我们可以果断地得出一个清晰的结论:
有了这个结论之后,紧接着一个新问题就是:“什么是GraphAgent?”。如果只是单纯地把「GraphRAG+任务规划+工具使用」进行硬性地组合,是我们期望的GraphAgent真正形态吗?
比如GraphRAG在GraphAgent中的定位是什么?访问图数据库的工具和GraphAgent的工具是什么关系?需不需要多个GraphAgent进行协作?在回答这些问题之前,我们需要对智能体有一个更清晰的认知,以指导我们更好完成GraphAgent的设计。
在《人类简史》这本书中,描述了人类历史发展过程中最重要的三种力量:

比较神奇的是,如今热门的MCP、A2A“恰好”都在工具这个类别下,当然这不是巧合,大厂积极地推广这样的交互协议,本质是期望通过定义智能体与世界的交互标准,达到构建生态的目的。细心的读者可能会发现,大家目前都在“卷”工具的标准,那么知识有没有标准呢?我相信这件事正在发生。
说完智能体的结构,还需要再探索另一个问题:“我们应该选择单智能体,还是多智能体?”。

当下这个问题并未尘埃落定,单从架构灵活性考虑,支持多智能体能力不失为一种稳健的选择。这样既保留了面向生态和未来的扩展性,也不妨碍我们专注于优化单智能体的能力。
连接主义的代表性技术「神经网络」,是通过模拟大脑神经元的组织和行为而逐步发展的技术体系,属于仿生学习的典型案例。另外,论文《AdvancesandChallengesinFoundationAgents》(链接:https ://arxiv. org/abs/2504. 01990)中对仿生的理念做了延伸,将大脑的不同功能区与AI研究领域进行了映射。
仿生学习理念在智能体时代可以有更广阔的发挥,可以将脑神经科学、认知心理学、社会学、哲学等跨学科知识与计算机科学进行深度的结合。更进一步地,我们扩展出「广义仿生」的理念:从神经元、大脑、四肢、个体、群体乃至到世界的全面仿生。
并且,我们发现这种广义的仿生理念,和Graph有着深度的内在联系,这得益于Graph在描述「事物客观联系」上的天然优势。从而可以使用多样化的Graph结构和技术描述智能体中LLM(大脑)、推理&规划(思考)、记忆(海马体)、知识(世界知识)、工具(四肢&外部工具)、协作(群体)的内在组织结构,实现Graph对智能体能力的全面增强。
结合GraphRAG的演进历史,以及Graph对「广义仿生」驱动的智能体的设计思考,我们基本梳理清楚了「Graph+AI」技术的关联逻辑,也就是「图智互融」。
一方面借助AI加速Graph的构建、分析,提升产品的使用效率和自动化,即「AIforGraph」。另一方面,利用Graph在连接上的优势,重构AI组件的组织,增强推理能力和可解释性,即「GraphforAI」。
结合「图智互融」的理念,我们定义了Graph与AI的双向增强逻辑。作为智能体不仅可以解决智能用图的问题,还可以受益于图在智能体系统设计的增强优势,让图的能力在智能体内置化,这就是我们定义的「图原生」。
Chat2Graph是行业首个全面践行「图原生智能体」理念的系统:以智能体为蓝图,探索「图智互融」技术创新。系统采用了「单主动-多被动」(链接:https ://arxiv. org/abs/2409. 11393)的混合智能体架构,构建了以单个Leader智能体驱动,多个Expert智能体协作的任务执行体系。
系统的核心组件有:
图系统层:构建了面向图系统的统一抽象,使用图数据库服务统一管理,并支持未来更多图计算系统的扩展。
AI系统层:构建AI基础设施抽象,如智能体框架、RAG、记忆工具、模型服务工具等,提供智能体能力基建和生态扩展。
存储服务层:存储智能体的持久化数据,包括元数据、记忆、知识、文件等。
推理机:提供LLM服务封装、推理增强、工具调用等基础能力。
工作流:负责智能体内部的算子(Operator)编排与SOP抽象,定义智能体工作流程。
记忆系统:构建分层的知识精练体系,负责智能体系统的信息存储、检索,包括记忆管理、知识库、环境等。
工具库:基于图谱的方式描述工具和智能体行动的关联关系,实现工具的自动化管理和推荐。
智能体:智能体系统执行单元的统一抽象,使用角色定义(Profile)描述工作职责,使用工作流描述工作流程。主要包括Leader智能体和Expert智能体两大类型。
自动化:系统智能体化能力的抽象,「LessStructure」理念的实践手段。包括自动的任务规划、工作流生成、工具库优化、知识精练、资源调度等能力。
系统集成:提供WebUI、RestfulAPI、SDK的集成方式,通过YAML一键配置智能体系统,方便开发者快速接入Chat2Graph的能力。
系统运行时,Chat2Graph能够将用户的自然语言指令智能地转化为一系列精确、自动化的图数据构建、数据处理、算法应用和迭代优化的步骤。这极大地降低了用户进行复杂图分析的技术门槛,使得非技术背景的用户也能利用图的强大表达能力进行深度探索和知识发现。
关于智能体的标准定义,行业并未形成统一标准,但智能体的关键组件概念基本上已经深入人心:如推理、规划、记忆、知识、行动、工具、协作、环境等等。早在2023年OpenAI安全VP翁荔在文章《LLMPoweredAutonomousAgents》(链接:https ://lilianweng. github.io/posts/2023-06-23-agent/)中就提出「Agent=规划+记忆+工具+行动」的基本结构。后续随着智能体技术的行业演进,出现了诸多「改进型」范式,如「Agent=规划+记忆+工具」,甚至更极端的「Agent=LLM+工具」的定义。
在设计Chat2Graph的过程中,我们经过长期的深度思考,总结了Chat2Graph对Agent结构的理解。即「Agent=推理+记忆+工具」,规划&协作属于高维的推理,知识&环境属于高维的记忆,行动&战略属于高维的工具。接下来我们先按照这个总体理念,介绍Chat2Graph的关键组件设计和实现原理,并在「开放架构」章节解释这个观点的自洽性。
5. 3推理系统
推理系统整合了LLM的交互能力,从提示工程激发LLM的「推理」能力,到任务拆分「规划」复杂任务,再通过多智能体「协作」完成总体目标,是智能体系统「智能」的统一抽象。
5. 3.1推理增强
常规LLM推理能力增强有两种主流路线,一种是借助RL(强化学习)增强隐式推理能力的LRM模型路线,另一种是通过提示工程(CoT等)增强LLM显式推理能力的工程路线。

DualModelReasoner采用一个“思考者”(Thinker)LLM和一个“执行者”(Actor)LLM协同工作的模式,类似于两个LLM在“一言一语”地交叉式地对话。Thinker通常是能力更强、理解和规划能力更出色的LLM,负责理解复杂的用户意图、分解任务、制定计划,并在需要时决定调用哪个工具或子任务,可以将具体的、定义清晰的、步骤性的任务或工具调用请求传递Actor模型执行。Actor模型则是在遵循指令进行格式化输出、执行特定类型的工具调用、快速思考回答更高效的LLM,可以专注于处理工具调用的请求和响应格式化,使得Thinker模型能更集中于核心的推理和规划。
关于LLM推理能力增强是走模型路线,还是工程路线,我们认为不是一个选择题。我们期待LLM未来推理能力的持续改进与提升,也不排斥在LLM推理能力不足时期,引入必要的工程手段加以补充。
任务规划是一个相对模糊的概念,至少在智能体系统内,有两类规划场景。一类是面向不确定的用户原始问题,如何拆分为具体的子任务,并安排好子任务的执行和依赖关系,即任务拆分,产出为JobGraph。另一类则是针对特定领域的子问题,如何设计合理的流程对任务分阶段处理,即SOP,产出为Workflow。
其实这两类场景其实本质是相同的,在Chat2Graph中,JobGraph更侧重于描述智能体间的职责分配,Workflow则更侧重描述单智能体内部的职责,仅仅是对用户目标的拆分粒度在不同的层面而已。当前Chat2Graph的JobGraph由Leader统一完成,而Workflow还是「硬编码」在智能体内部,同时我们也在OSPP(链接:https ://summer-ospp. ac.cn/org/prodetail/257280066)中和社区一起共建「自动工作流生成」能力。未来,这两部分规划能力,即JobGraph和Workflow可以做到统一整合。
协作当前更多的还是强调多个智能体之间的互动,处理任务、资源的动态分配和调度。不论是采用「单主动-多被动」的统一Leader协调方式,还是多个Expert自由通信的自主方式。亦或采用单进程的串行处理,还是使用远程通信的并发处理。多智能体系统的协作机制都要处理以下几个关键问题:
任务分配:将拆分好的子任务合理地分配到对应的智能体执行。
执行容错:任务执行结果的评估与反思,并能通过重试自动恢复。
重新规划:对不合理的任务拆分的容错能力,能适时的请求重新规划流程。
结果交付:能通过合理的协作,对任务产出物生成、加工、优化,交付预期结果。
资源调度:通过调度优化资源的使用,降低时间、空间、Token开销,提升质量。
相比Workflow的「静态」属性多一些,更侧重规范化流程,JobGraph的「动态」属性则多一些,更侧重任务的灵活性以及能力扩展。尤其是类似A2A协议定义了智能体交互的规范,更需要良好的协作机制,通过引入更开放的生态,扩展系统边界,提升解题能力。
记忆系统负责智能体系统中信息的存储、检索和管理,可以与推理机配合构建长上下文、跨会话机制,为整个系统提供持久化的学习和适应能力,提升系统的整体智能水平。Chat2Graph引入了分层「记忆」设计,定义了从原始数据逐步提炼到高层次的智慧洞察的过程,希望使用统一架构兼容「知识」库、外部「环境」信息。
与传统的基于仿生理念将记忆划分为感知记忆、短期记忆、长期记忆的划分手段不同,Chat2Graph借鉴了DIKW(链接:https ://en. wikipedia.org/wiki/DIKW_pyramid)金字塔模型,从信息的内容角度出发将记忆划分为四层结构。
这是一次新颖的尝试,我们更相信在记忆系统的设计中引入数据工程、知识图谱等传统数据处理方法,而非单纯地走「仿生」的路线。
5. 4.2知识管理
一般的,知识库被看作外部知识的「封闭式」存储仓库。为了提升知识召回的质量,RAG框架多数情况在对知识库的外围技术做改进,比如查询重写、文档切分、重排序等等,反而忽略了知识内容自身的改进。当然,GraphRAG可以看做一种相对早期的尝试。分层记忆系统的引入,为精细化的知识管理的提供了「开放式」的解决思路。
分层记忆系统引入的多级信息抽象,允许我们能从更精细的粒度对知识进行管理。
知识精练(KnowledgeRefinement):原始知识经过逐级的处理、分析、抽象、压缩,形成更高层次的知识,扩展知识生产的能力。
知识下钻(KnowledgeDrilling):在使用高维知识的同时,还可以按需下钻低维知识,让推理上下文粗中有细,强化知识消费的能力。
知识延拓(KnowledgeExpansion):表示同层级知识关联的构建和召回,通过特定方法丰富知识上下文。典型代表是RAG(检索增强生成)。
从某种意义上讲,「知识库其实是记忆系统在垂类领域知识上的特化表达」。当前Chat2Graph初步地将RAG作为知识库的实现底座,并正在与MemFuse(链接:https ://github. com/memfuse/memfuse)在社区上通力合作,构建分层、动态、关联的记忆系统架构,最终实现知识库能力整合。
5. 4.3外部环境
环境指的是智能体执行过程中可交互的外部空间,智能体可以通过工具操作感知环境变化,影响环境状态。本质上,「环境可以被视为\“当前时刻的外部记忆\“,而记忆则是\“历史时刻的环境快照\“」,这种同质性使得环境可以无缝地融入分层记忆模型中。Agent通过工具感知的环境信息其实是L0层的原始数据,并可以进一步的提炼形成更高层次洞察(L1~L3)。反过来,记忆系统中经验积累会直接影响环境中的全局共识和高维洞察。
最新的G-Memory(链接:https ://arxiv. org/abs/2506. 07398)的研究与我们的分层记忆系统的理念不谋而合,它设计了三层图结构来管理记忆:
交互图(InteractionGraph):存储细粒度的智能体间的通信日志,提供事实依据。
查询图(QueryGraph):记录任务节点(含状态)以及语义相似或关联的任务关系,并与交互图链接。
洞见图(InsightGraph):存储从多次成功或失败的交互中提炼出的、具有普适性的经验和教训。
另外,从智能体与外部环境的关系来看,通过「工具」这座桥梁,可以深层次地打通记忆系统与环境状态,构建智能体的「精神世界」与外部环境的「物理世界」的映射关系,即世界知识模型。
工具系统负责智能体系统中「工具」的调用与管理,通过与「行动」关联构建工具库图谱,并能提供「战略」性的指导建议为推理机推荐合适的工具集,扩展智能体行为能力的边界。
工具调用早期的形态来源于LLM的FunctionCalling机制,随着LLM能力不断提升,通过提示工程构建通用的工具调用能力已经相当普遍。
在Chat2Graph中,推理机可以结合任务目标,从候选工具集中确定所需的工具并触发调用动作。除了对常规意义的外部工具(如脚本、API、MCP)的支持,Chat2Graph还允许将系统的内置服务(文件服务、知识库服务等)注入到工具,以便和系统资源无缝打通。从整个智能体角度来看,这么做提升了工具调用的扩展性和灵活性。
随着智能体接入的行业领域不断增长以及工具控制粒度的不断细化,智能体面临的工具规模管理成本和合理工具选型的难度将不断提升。面向大规模工具集的合理工具选型是一个典型的「推荐问题」,而「二分图」是解决推荐问题时常用的图数据抽象,因此构建「行动-工具」的关联图谱就十分合理。
在Chat2Graph中,正在建设自动化的工具图谱构建、优化、推荐的能力。比如一键注册工具包、MCPServer到工具图谱,并结合强化学习的思路优化工具的元信息、关联关系和权重等。
如果说行动是对工具的初级抽象,那么战略则是对行动的进一步抽象。通过建立行动的高维抽象,描述行动间的顺序依赖和关联关系,为智能体的行为序列推荐提供战略性的指导建议,进一步提升工具图谱的丰富度和推荐能力。这一部分的工作我们还在逐步探索。

传统的软件工程核心本质在于解决数据和计算的问题,通过设计良好的编程语言高效地操纵CPU和存储,通过合理的数据结构和算法描绘软件的功能逻辑,通过优雅的架构定义软件的数据模型和计算抽象,因此可以说「数据」和「计算」是传统软件工程的基石。基于LLM的AI行业爆发以后,引入了第三块基石——「模型」,将传统软件工程升级为AI软件工程,Agent便是最典型的代表。
结合前面对Chat2Graph架构原理的解读,可以进一步得到如下抽象能力矩阵。
我们认为,「推理」、「记忆」、「工具」是对AI工程三大基石「模型」、「数据」、「计算」的工程化表达,同时「规划&协作」、「知识&环境」、「行动&战略」是对「推理」、「记忆」、「工具」的进一步抽象,而它们都可以使用Graph统一表达,分别对应「任务图谱」、「知识图谱」、「工具图谱」,甚至在未来这三张Graph还可以进一步融合,这便是我们对「GraphforAI软件工程」的整体理解。
基于这样的第一性思考,再结合MCP、A2A这样的标准化协议,可以指导Chat2Graph面向未来的开放设计。甚至可以让Chat2Graph形成自主迭代能力,引导Chat2Graph从AIAgent走向AgenticAI。
Chat2Graph当前内置了多个图领域专家,可以通过多智能体协作的方式传统GraphRAG的链路工作。

另外,基于Chat2GraphSDK也可以实现轻松集成到你的Python应用。

以上我们全面解读了Chat2Graph践行「Graph+AI」理念的细节,即GraphAgent。关于Graph⋈Agent的未来形态,还有一些关键的点需要持续保持关注。
由Manus团队提出的智能体产品设计理念,「LessStructure,MoreIntelligence」是AINative思想的直观表达,正在深刻影响着智能体的演进路径。过度结构化将扼杀智能体的涌现潜力,但「LessStructure」并非简单的「去结构化」,而是就智能体设计这个问题上,人与LLM之间的「信任转移」,即你更相信自己多一些,还是更相信LLM多一些?

Chat2Graph的架构设计中,「自动化」能力的设计就是对「LessStructure」理念的落实,也是未来走向AgenticAI的关键基础。
6. 2MoreConnection
相对应的,Chat2Graph提出了「MoreConnection,LessHallucination」的理念,这是GraphNative思想的具象化,也是符号主义的在AI时代的价值主张,更是GraphAgent的精神内核。「MoreConnection」并非单纯意义上的增加连接的规模,而是在智能体系统的关键设计中引入「连接」设计,比如任务图谱、知识图谱、工具图谱,为智能体赋予更确定的语义结构,增强推理的可解释性。
结合前面的讨论,这里简单对比一下AIAgent与GraphAgent能力差异。
这里多做一步讨论,过往多年,人工智能的研究者们一直不懈地探索表达人类「世界知识」的方法。以「知识图谱」为代表「符号主义」研究鏖战多年,而以「神经网络」为代表的「连接主义」也是到LLM的「ScalingLaw」的出现才迎来转机。不幸的是人们很快就遇到了LLM的「算力&数据」瓶颈,导致LLM只能用有限层级的「深度神经网络」去压缩「世界知识」,带来的直接后果就是「幻觉」。
这个时候大家自然想到,「知识图谱」这位“难兄难弟”能不能在关键时刻捞自己一把,弥补掉那部分因为「深度缺失」而遗漏的知识。在和DeepSeek就这个话题沟通时,TA说的一句话倒是让我眼前一亮:“知识图谱不是AI的插件,而是机器认知世界的骨架。”,倒是和我对「图智互融」本质的粗浅理解达成共识了。
最后,对去年底年终总结时留下的“小作业”做个回顾:「Agent-LLM=?」,意思是去掉LLM,Agent真正剩下的价值是什么?当时写下这个问题的本意是帮助大家去深思“在LLM能力不断增强的情况下,「AI工程」的不变价值是什么?”,不知道你是否还记得当时的答案吗?
经过这篇万字文章的「自问自答」,我结合Chat2Graph给出了我们一直坚信的答案:
Agent-LLM=Memory+Tool
或许会有人挑战:“其实Memory的读写也应该看做Tool的一部分”。这里我使用一句话对此释义:
记忆是白盒化的工具,而工具是黑盒化的知识。
个中缘由,请君自译。
参考资料:
1. 2024年度Graph+AI开源探索思考:https ://mp. weixin.qq. com/s/1x6FQWZTa517aX8GDjHeNA
2. Chat2Graphv0.1. 0:https ://github. com/TuGraph-family/chat2graph/releases/tag/v0. 1.0

4. 硅基流动邀请链接:https ://cloud. siliconflow.cn/i/lFPrw34X
5. Chat2Graph代码仓库:https ://github. com/TuGraph-family/chat2graph
6. Chat2Graph项目文档:https ://chat2graph. vercel.app/
7. ATheoryofFormalismsforRepresentingKnowledge:https ://arxiv. org/abs/2412. 11855
8. 访谈李继刚:从哲学层面与大模型对话:https ://zhuanlan. zhihu.com/p/7494277954
9. Awesome-Text2GQL:从语料生成到TuGraph-DBChatBot:https ://mp. weixin.qq. com/s/P7V8Z9hao7lyw0bMdr94cg
10. RAG七十二式:2024年度RAG清单:https ://mp. weixin.qq. com/s/Sy1dSx5RUtD6rjMY7_efkw

12. Vector|Graph:蚂蚁首个开源GraphRAG框架设计解读:https ://mp. weixin.qq. com/s/WILvYFiKugroy9Q_FmGriA
13. 微软的GraphRAG:https ://github. com/microsoft/graphrag
14. GraphRAG+文档结构:打造高性能实体溯源方案:
https ://mp. weixin.qq. com/s/EQ3QnWWt1v9_S79MdRaJlw
15. AgenticRetrieval-AugmentedGeneration:ASurveyonAgenticRAG:https ://arxiv. org/abs/2501. 09136

17. WhyDoMulti-AgentLLMSystemsFail?:https ://arxiv. org/abs/2503. 13657
18. Don’tBuildMulti-Agents:https ://cognition. ai/blog/dont-build-multi-agents

20. AdvancesandChallengesinFoundationAgents:https ://arxiv. org/abs/2504. 01990

22. LLMPoweredAutonomousAgents:https ://lilianweng. github.io/posts/2023-06-23-agent/
23. AgentsThinkingFastandSlow:ATalker-ReasonerArchitecture:https ://arxiv. org/abs/2410. 08328
24. OSPP:https ://summer-ospp. ac.cn/org/prodetail/257280066
25. DIKW:https ://en. wikipedia.org/wiki/DIKW_pyramid
26. MemFuse:https ://github. com/memfuse/memfuse
27. G-Memory:TracingHierarchicalMemoryforMulti-AgentSystems:https ://arxiv. org/abs/2506. 07398

29. GraphRAG-ToolFusion:https ://arxiv. org/abs/2502. 07223

32. Chat2Graph快速开始:https ://chat2graph. vercel.app/chat2graph/zh-cn/quickstart

·END·
欢迎关注TuGraph代码仓库✨
TuGraph-DB图数据库
https ://github. com/tugraph-family/tugraph-db
GeaFlow流式图计算引擎
https ://github. com/tugraph-family/tugraph-analytics
Chat2Graph图原生智能体系统
https ://github. com/tugraph-family/chat2graph


文章作者: ZejunCao
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 ZejunCao !
  目录