图神经网络学习感悟
本文章为本人在百度图神经网络7日打卡营学习总结
1.图学习初感受
传统深度学习难以处理不规则的数据,使用图学习可以方便的处理不规则数据。
图学习可以将非结构化数据转为结构化表示。
图学习算法脑图:
2.图游走算法
2.1 前置知识
Word2vec词向量算法中的SkipGram算法与其中使用到的负采样方法。
2.2 目的
得到图中节点的特征向量表示,节点特征向量可用于下游任务如分类。
2.3 算法介绍
2.3.1 DEEPWALK
图游走类算法参考词向量算法实现,图中节点对应单词,图中节点序列对应句子。
DEEPWALK采用随机游走方式,随机游走本质为可以回头的DFS。
从当前节点等概率选择下一个节点。
2.3.2 NODE2VEC
NODE2VEC算法对随机游走算法加以改进,采用不同概率,控制返回自身、BFS、DFS的概率。
其中1/p 代表返回前一节点概率,1/q代表DFS概率,1是BFS概率。
2.3.3 METAPATH2VEC
上述两个游走算法是基于同构图的图游走算法,METAPATH2VEC是异构图的游走算法。异构图中节点与边具有不同类型。
不考虑节点类型的异构随机游走具有以下缺点:
- 偏向于出现频率高的节点类型
- 偏向于相对集中的节点(度数更高的节点)
其中选取的元路径需要对称,只要首尾节点类型相同就可以继续游走,以便于扩展
图游走类模型脑图总结:
3. 图卷积网络GCN
图中各个节点相互传递信息,其中包含发送信息与聚合信息两个过程。
公式中AH为从邻居得到信息更新自身信息,D为度矩阵,乘以度矩阵是区分各邻居传递信息的重要性,邻居节点所连接的节点越多即度数越大,所含信息价值越低。
4. 图注意力网络GAT
GCN中使用度矩阵来区分邻居节点信息的重要性,其缺点在于这种权重不可学习。
GAT中边权重根据两个节点特征进行学习,可以学习优化。
结尾
以上内容为个人总结,大家也可以去我的个人博客讨论联系,欢迎大家指正。
JMX的个人博客 www.jmxgodlz.xyz