Graph Attention Networks——《论文阅读》

引言

图像,通常被理解为矩阵,矩阵的每个元素是像素,像素是(Red,Green,Blue)三个数值组成的向量。
换个角度,矩阵也可以理解为图谱(Graph),图谱由点(node)和边(edge)组成。相邻的点之间,有边相连。而矩阵是一种特殊的图谱,特殊性表现在两方面:

  1. 矩阵每个点有固定个数的邻点。 从图谱的角度看,图像中的像素,就是图谱中的点。图像中每个像素,也就是图谱中的每个点,周边总共有 8 个邻点。
  2. 矩阵每条边的权重是常数。从图谱的角度看,图像中的每一个像素,只与周边 8 个邻点之间有边,边的长短权重,是常数。

图像作为一种特殊的图谱,特殊性体现在这两个限制上面。如果放松了这两个限制,譬如地图、人际关系,论文引用网络、医学知识图谱等等问题,就更复杂了,深度学习算法也会面临更大的挑战。
Graph Attention Networks 尝试将图谱作为输入,并强调不同样本点之间的关系,用深度学习的方法完成分类、预测等。
以上摘自新智元

摘要

堆叠基本的图自注意力层,形成深度学习网络。基本的图自注意力层能够为中心结点(样本)的邻域结点(样本)分配不同的权重,表示邻域结点对中心样本的不同重要性,在空域内可以理解为结构信息等,加权和得到中心样本的新表示。
原文:https://arxiv.org/pdf/1710.10903.pdf

算法

1:Input : node feature 的集合 h = [ h 1 , h 2 , ⋯   , h N ] h i ∈ R F ( F 表 示 特 征 维 度 ) h = [h_1,h_2,\cdots,h_N] \qquad h_i\in R^F(F表示特征维度) h=[h1,h2,,hN]hiRF(F)2:为了能够让特征更具表达能力,采用了线性变换先对原始特征进行处理 h ′ = [ h 1 ′ , h 2 ′ , ⋯   , h N ′ ] h i ′ ∈ R F ′ h^{'} = [h_{1}^{'},h_{2}^{'},\cdots,h_{N}^{'}] \qquad h_{i}^{'}\in R^{F'} h=[h1,h2,,hN]hiRF h i ′ = W h i W ∈ R F ′ × F h_{i}^{'} = Wh_i \qquad W\in R^{F^{'}\times F} hi=WhiWRF×F 3: 任意两个样本之间注意力系数的计算公式 e i j = a ( W h i , W h j ) a 表 示 共 享 注 意 力 机 制 e_{ij} = a(Wh_i ,Wh_j ) \qquad a表示共享注意力机制 eij=a(Whi,Whj)a4:一般来说,通过注意力机制可以计算任意两个样本的关系,使一个样本用其他所有样本来表示,但是第一,基于空间相似假设,一个样本与一定范围内的样本关系较密切,第二,样本较多的时候,计算量非常大。——因此,对于一个样本xi来说只利用邻域内的样本计算注意力系数和新的表示。
这篇文章的问题:1,邻域的计算 2.邻域的取值 α i j = s o f t m a x j ( e i j ) = e e i j ∑ k ∈ N i e e i k j ∈ N i \alpha_{ij}=softmax_j(e_{ij}) = \frac{e^{e_{ij}}}{\sum_{k\in N_i}e^{e_{ik}}}\quad j\in N_i αij=softmaxj(eij)=kNieeikeeijjNi利用样本邻域计算新的表示公式如上,为方便比较计算,使用softmax函数进行归一化处理。
5: 文章利用权重向量参数化的单层前馈神经网络表示注意力机制a,并使用LeakyRuLU激活结点,所以计算公式具体表示为: α i j = e L e a k y R u L U ( a T [ W h i ∣ ∣ W h j ] ) ∑ k ∈ N i e L e a k y R u L U ( a T [ W h i ∣ ∣ W h k ] ) a ∈ R 2 F ′ ∣ ∣ 表 示 c o n c a t \alpha_{ij} = \frac{e^{LeakyRuLU(a^T[Wh_i||Wh_j])}}{\sum_{k\in N_i}e^{LeakyRuLU(a^T[Wh_i||Wh_k])}} \qquad a \in R^{2F'}\quad || 表示concat αij=kNieLeakyRuLU(aT[WhiWhk])eLeakyRuLU(aT[WhiWhj])aR2Fconcat在这里插入图片描述
_ 图1左表示特征转换,注意力机制,激活,归一化生成两个样本之间注意力系数的过程。右,表示用结点邻域的以不同注意力机制表示样本结点的过程。_
6:每个结点根据其邻域结点及邻域结点的注意力权重系数计算其新的表示: h ~ i ′ = σ ( ∑ j ∈ N i α i j W h j ) \widetilde{h}'_{i} = \sigma(\sum_{j\in N_i}\alpha_{ij}Wh_j) h i=σ(jNiαijWhj)7:图右,不同的箭头表示不同的注意力机制,在非最后一层多头注意力以concat形式结合 h ~ i ′ = ∥ k = 1 K σ ( ∑ j ∈ N i α i j k W k h j ) \widetilde{h}'_{i} =\|_{k=1}^{K} \sigma(\sum_{j\in N_i}\alpha_{ij}^{k}W^{k}h_j) h i=k=1Kσ(jNiαijkWkhj)8:最后一层,计算各个注意力机制下的均值: h ~ i ′ = σ ( 1 K ∑ k = 1 K ∑ j ∈ N i α i j k W k h j ) \widetilde{h}'_{i} = \sigma(\frac{1}{K}\sum_{k=1}^{K}\sum_{j\in N_i}\alpha_{ij}^{k}W^{k}h_j) h i=σ(K1k=1KjNiαijkWkhj)

实验实现的过程没有邻域的计算,根据数据生成图谱是事先数据处理完成的,无论是训练,交叉验证,还是测试,都是一张完整的图和训练数据,标签数据也是完整的,只是在不同的阶段只有那一部分为真实标签,其余全为0,也就是半监督学习,之前觉得AffinityNet: Semi-supervised Few-shot Learning for Disease Type Prediction还有Non-Local Neural Networks实质一样的,但是具体的实现及灵活性有待商榷。

  • 8
    点赞
  • 51
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值