![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
LLM for Graph
文章平均质量分 64
UnknownBody
AI博士,最近一直follow大模型相关论文,每日会更新学术界论文的进展。
展开
-
Parameter-Efficient Tuning Large Language Models for Graph Representation Learning
富含文本的图在节点和边上显示了丰富的文本信息,在各种现实世界的业务应用程序中都很普遍。大型语言模型(LLM)在理解文本方面表现出了非凡的能力,这也为在富含文本的图中进行更具表现力的建模带来了潜力。尽管有这些能力,但将LLM有效地应用于图上的表示学习是一项重大挑战。最近,LLM的参数高效微调方法以最小的时间和内存消耗实现了高效的新任务泛化。受此启发,我们引入了图感知参数高效微调-GPEFT,这是一种在富含文本的图上使用LLM进行高效图表示学习的新方法。原创 2024-06-28 10:21:51 · 88 阅读 · 0 评论 -
MuseGraph: Graph-oriented Instruction Tuning of Large Language Models for Generic Graph Mining
在各种现实世界应用中,具有丰富属性的图对于建模互连实体和改进预测至关重要。传统的图神经网络(GNN)通常用于对属性图进行建模,当应用于不同的图任务和数据集时,每次都需要重新训练。尽管大型语言模型(LLM)的出现为自然语言处理引入了一种新的范式,但LLM在图挖掘中的生成潜力在很大程度上仍未得到充分挖掘。为此,我们提出了一个新的框架MuseGraph,它无缝集成了GNN和LLM的优势,并促进了跨不同任务和数据集的更有效和通用的图挖掘方法。原创 2024-05-20 10:23:54 · 17 阅读 · 0 评论 -
GraphEdit: Large Language Models for Graph Structure Learning
图结构学习(GSL)专注于通过生成新的图结构来捕获图结构数据中节点之间的内在依赖性和交互。图神经网络(GNN)已成为有前途的GSL解决方案,利用递归消息传递对节点间的相互依赖性进行编码。然而,许多现有的GSL方法在很大程度上依赖于显式图结构信息作为监督信号,这使得它们容易受到数据噪声和稀疏性等挑战的影响。在这项工作中,我们提出了GraphEdit,这是一种利用大型语言模型(LLM)来学习图结构数据中复杂节点关系的方法。原创 2024-03-15 14:23:51 · 41 阅读 · 0 评论