graph-attention-network

27 篇文章 0 订阅
26 篇文章 0 订阅

representation

h=\{\vec{h_1},\vec{h_2}...\vec{h_N}\}, h_i\in R^F

N is the number of Nodes

node feature

neighbourhood+leakrelu->node

\alpha_{ij} =softmax_j(e_{ij})=e_{ij}/\sum_{k\epsilon N_i}e_{ik}

a_{ij}= \frac{exp\(LeakRelu(\vec{\alpha }^t[W_{h_i}||W_{h_j}])\)}{\sum_{k\in N_i}exp\(LeakRelu\(\vec{\alpha^t }[W_{h_i||W_{h_k}}]\)\)}

update

h_{i,}=\sum_{j\in N_j}\alpha _{ij}h_j*W_{h_j}

with head=k

multi-head+neighbourhood->node

h_{i}^{'}=\parallel_{k=1}^K\ \sum_{j\in N_j}\alpha _{ij}^kh_j*W_{h_j}^k

graph相关的算法,都是相邻点的embedding表达,不断的迭代, gat就是 通过建立相邻边的attention,来拟合周边attention,

multihead机制,提升图attention效果

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值