MuseGraph: Graph-oriented Instruction Tuning of Large Language Models for Generic Graph Mining

本文是LLM系列文章,针对《MuseGraph: Graph-oriented Instruction Tuning of Large Language Models for Generic Graph Mining》的翻译。

MuseGraph:面向图的通用图挖掘大型语言模型的指令调优

摘要

在各种现实世界应用中,具有丰富属性的图对于建模互连实体和改进预测至关重要。传统的图神经网络(GNN)通常用于对属性图进行建模,当应用于不同的图任务和数据集时,每次都需要重新训练。尽管大型语言模型(LLM)的出现为自然语言处理引入了一种新的范式,但LLM在图挖掘中的生成潜力在很大程度上仍未得到充分挖掘。为此,我们提出了一个新的框架MuseGraph,它无缝集成了GNN和LLM的优势,并促进了跨不同任务和数据集的更有效和通用的图挖掘方法。具体来说,我们首先通过所提出的自适应输入生成引入了一种紧凑的图描述,以在语言标记限制的约束下封装图中的关键信息。然后,我们提出了一种多样化的指令生成机制,该机制从LLM(例如,GPT-4)中提取推理能力,为不同的图任务创建特定任务的基于思想链的指令包。最后,我们提出了一种图感知的指令调优,它具有跨任务和数据集的动态指令包分配策略,确保了训练过程的有效性和通用性。我们的实验结果表明,在不同的图任务中有了显著的改进,展示了我们的MuseGraph在保持LLM的生成能力的同时,在提高面向图的下游任务的准确性方面的潜力。

1 引言

2 相关工作

3 MUSEGRAPH框架

4 实验

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值