飞桨图神经网络7日打卡训练营-总结
从nlp领域到图领域,图结构的数据越来越多,非规则图像我们都可以构建为一幅图,自然而然我们就可以将GNN的任务分类为三种:(如后图描述)
- 节点级别:节点分类等
- 边级别:推荐系统,连边预测
- 图级别:两图比较,多图匹配
GNN技术分类:
- 2013年word2vec的出现,给nlp领域带来了曙光,通过嵌入,使得每个单词不是在冷冰冰,稀疏的one-hot编码表示,而是通过skip-gram进行嵌入稠密化,向量语义化。通过移动窗口技术进行一测多 。2014年迁移到图领域从而形成游走派别的deepwalk->node2vec,究其本质,基于游走,遍历越多,信息越丰富
- 基于矩阵分解
- 基于神经网络:gcn的出现,给图像领域带来了新生,分为过滤和邻居信息汇聚两大方向 ,而图自然是特殊的图像,所以自然过渡到图领域,结合最近大火的神经网络,在Gpu是进行快速的矩阵运算,训练节点特征并行化,快速化,细粒度化。由汇聚类gcn->gat->graphsage->mpnn,抛开技术不谈,本质都是gcn的邻居信息汇聚,而重点在于汇聚那些邻居,汇聚那些信息 小师妹老师讲的很好。gcn是根据度进行权重分配,而gat是修改了权重分配方式,改为注意力;过渡到graphsage,一样是汇聚,可是samples了,三大主流模型,核心是汇聚。
总结:gnn发展很快,百度的pgl类库好用,符合正常人的代码书写。在结合他们提出的语义-采样聚合模型,是否能启迪我们科研人员,通过将节点的语义信息和结构信息同时汇聚,使得节点表示细粒度化,从而使得我们的特定任务结果更优。
感谢:感谢百度这一次的授课,我真的收获颇丰,谢谢。
图片来源:https://blog.csdn.net/qq_41358220/article/details/110265465