图神经网络和大模型相结合应用的最新综述,2024年最强开始,GNN和LLMs强强联合

本文综述了大语言模型在纯图、富文本图和图-文本对三种场景下的应用,包括作为预测器、校准器和编码器的角色,以及图神经网络和Transformer在图处理中的作用。讨论了大模型如何利用图结构和文本信息进行预测、对齐和特征提取。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

题目:《Large Language Models on Graphs: A Comprehensive Survey》

According to the relationship between graph and text, we categorize three LLM on graph scenarios. Depending on the role of LLM, we summarize three LLM-on-graph techniques.“LLM as Predictor” is where LLMs are responsible for predicting the final answer. “LLM as Aligner” will align the inputs-output pairs with those of GNNs. “LLMasEncoder”refers to using LLMs to encode and obtain feature vectors.

一、在文章中,对于图大致分为三类:

纯图(pure graphs),即图中主要以图结构为主,像交通图等;

文本配对图(text-paired graphs),即文本描述和图成对存在的图,像蛋白质序列、基因序列等;

富文本图(text-rich graphs),即富有文本特征的图,这些文本以节点和边属性的形式存在。

针对以上图分类:

大模型和图结合的方式主要有三种:

1.大模型作为预测器:将图的embedding和text的embedding都输入llm进行预测,图embedding的方式可以经过gnn的产出,也可以用其他方式(文本描述),大模型负责预测给出最终答案。

2.大模型作为校准器:图经过gnn,text经过llm,然后对两部分的输出进行对齐或者校准。

3.大模型作为编码器:将text经过llm的输出和图一起输入gnn,llm相当于text的编码器,获得特征向量。

二、下面是图的一些定义和符号

三、图神经网络和transformer

文中介绍,GraphSAGE和GAT的注意力机制都可归纳为公式(4)(5),主要是解决节点级任务而设计的。后来的GIN则探索解决图级的任务。

在后续的工作中,gnn的工作逐步解决过度平滑、过度压缩、可解释性和存在偏差等问题。

在图问题上,总结为以下三个方面:

 

 

其实就是大模型分别作为预测器、编码器和校准器三方面的应用。

四、按图的分类去结合大模型

这里的图主要分为三种:纯图、富文本图(节点和边的属性中含有大量文本信息)、图-文本对(针对每个图都有相应的文本解释或含义,如基因和蛋白质分子序列等图结构)

1.纯图

对于纯图来说主要聚焦于:直接回答、启发式推理和直接推理。

直接回答:就是将图、图结构的描述或者图编码输入到llm,直接生成答案;

启发式推理:类似于llm的cot推理(思维链),就是引导大模型在图结构的基础上去做一些思维链方面的工作如dfs和bfs去检索子图,进而进行推理。

算法推理:基于明确的算法去做推理,生成answer。(文中介绍有点模糊)

2. 富文本图

主要从预测器、编码器和校准器三方面阐述。

 

(持续更新)

图神经网络GNN)是处理图结构数据的一种深度学习方法,它能够学习图中节点、边整个图的表示,适用于各种图结构数据的分析,如社交网络、知识图谱生物信息学网络等。而大语言模型,如BERT、GPT系列等,是基于深度学习的自然语言处理模型,它们能够理解生成人类语言,并在各种语言任务中展现出强大的性能。 当我们将GNN与大语言模型结合时,可以在两个方面进行结合:一是利用大语言模型作为辅助工具来增强GNN的节点表示学习,二是利用GNN来增强大语言模型在理解图结构数据方面的性能。具体实现时,可以通过以下方法之一或多种组合来实现: 1. GNN增强语言模型的上下文理解能力:可以在大语言模型的基础上,通过GNN来学习利用语言中的图结构信息(如语法树、语义关系图等),使得语言模型能够更深入地理解语言结构语义关系。 2. 大语言模型辅助GNN节点表示学习:将大语言模型产生的文本信息作为GNN节点的特征输入,帮助GNN在处理含有丰富文本信息的节点时,更好地理解节点属性语义。 3. 结合GNN与大语言模型进行跨模态学习:在一些应用场景中,如知识图谱构建,可以将GNN处理的结构化数据大语言模型处理的文本数据结合起来,通过跨模态学习让模型同时理解学习结构化知识语言知识。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

医学小达人

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值