Graph Neural Prompting with Large Language Models (GNP)

Graph Neural Prompting with Large Language Models (GNP)

新型的一种软提示调优方法

背景

大型语言模型(llm)在各种语言建模任务中都表现出了显著的泛化能力和卓越的性能,模型规模的显著增长进一步赋予了llm突出性能力

动机

1:LLM包含大量的参数和它们需要大量的计算资源。
2:现存的方法仍然表现出语言建模在准确捕获和返回基础知识方面的固有局限性。

结构图

在这里插入图片描述

方法

Subgraph Retrieval

目的:为了在输入文本标记X与拥有数百万节点的庞大知识图G之间进行语义对齐

Graph Neural Prompting

GNN Encoder

直接输入实体三元组会引入噪声,阻碍LLM模型集中于关键信息。
在这里插入图片描述
用的是标准的图注意力网络。

Cross-modality Pooling

为了识别与问题相关的最相关的节点,并将节点嵌入整合为一个整体的图形级表示。
1:把H1经过自注意力机制层变成了Node Embs。
在这里插入图片描述
2:把text Emb经过两层FFN。然后把H2当query,T’作为key和value。进行一边注意力机制形成H3。
在这里插入图片描述
3:(H4)Graph Embs 是H3经过平均池化(average pooling)得到的。
在这里插入图片描述

Domain Projector

为了在图级嵌入和文本域之间创建一个映射,以方便LLM的理解。
就是H4经历两层FFN。

Self-supervised Link Prediction

设计了一个链接预测任务,以进一步细化其对实体之间关系的理解,并以自我监督的方式捕获图知识。
在这里插入图片描述

实验结果

1:总体效果

通过很多数据集以及很多基线的对比,与input embedding Frozen的LLM 以及prompt tuning的LLM进行比较GNF的效果脱颖而出。GNP再用LORA微调一下效果会更好。(准确率是评价指标)
在这里插入图片描述

2:消融实验

证明了GNF的几个关键组件都是有效的,其中domain projector对模型影响的效果最大。
在这里插入图片描述

3:模型设计比较

意思就是GNF提供的实例级提示为LLM提供了足够的指导。
在这里插入图片描述

4:参数敏感度

GNN的层数和 cross-modality层数都对结果有影响。
在这里插入图片描述

5:可视化

GNP方法具有在图中收集最关键信息以确定正确答案的能力,GNP能够捕获关键实体之间的结构接近性,并选择正确的答案。
在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值