GraphTranslator: Aligning Graph Model to Large Language Model for Open-ended Tasks

828 篇文章 3 订阅

已下架不支持订阅

29 篇文章 0 订阅
GraphTranslator是一种新型框架,旨在连接预训练的图模型(GM)和大型语言模型(LLM),以处理开放式任务。通过翻译器模块,它将GM的节点嵌入转换为LLM理解的token,从而利用LLM处理多样化任务。实验显示,GraphTranslator在零样本节点分类和图形问答中表现出有效性,展示其在开放任务中的潜力。
摘要由CSDN通过智能技术生成

本文是LLM系列文章,针对《GraphTranslator: Aligning Graph Model to Large Language Model for Open-ended Tasks》的翻译。

GraphTranslator:将图模型与开放式任务的大型语言模型对齐

摘要

像ChatGPT这样的大型语言模型(LLM)展示了强大的零样本和指令跟踪功能,催化了不同领域的革命性转变,尤其是对于开放式任务。虽然这一想法在图领域的探索较少,尽管有许多强大的图模型(GM)可用,但它们仅限于预定义形式的任务。尽管已经提出了几种将LLM应用于图的方法,但它们无法同时处理预定义和开放的任务,LLM作为节点特征增强器或独立的预测器。为了打破这一困境,我们建议通过一个名为GraphTranslator的翻译器来桥接预训练的GM和LLM,旨在利用GM有效地处理预定义的任务,并利用LLM的扩展接口为GM提供各种开放式任务。为了训练这样的翻译器,我们提出了一个能够根据节点信息、邻居信息和模型信息构建图文对齐数据的Producer。通过将节点表示转换为token,GraphTranslator使LLM能够基于语言指令进行预测,为预定义任务和开放式任务提供统一的视角。大量的结果证明了我们提出的GraphTranslator在零样本节点分类上的有效性。图形问答实验通过语言指令揭示了我们在广泛的开放式任务中的GraphTranslator潜力。我们的代码位于:

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值