图神经网络
李明朔
这个作者很懒,什么都没留下…
展开
-
百度图神经网络——论文节点比赛baseline代码注解
文章目录一、项目介绍二、BaseLine内容注解1.Config部分注解2. 数据读取与处理部分2.1 边数据的加载与处理2.2 数据的完整加载与处理2.3 数据读取与分割3. 模型加载部分4. 模型训练过程三、model.py的内容解析1 GCN模型代码讲解2. GAT模型代码讲解3. APPNP模型代码讲解3.1 SGC模型代码讲解——(APPNP模型补充)4. GCNII模型代码讲解四、build_model.py的内容解析五、总结比赛地址:常规赛:论文引用网络节点分类文章转载自:图网络笔记–论文转载 2020-11-30 19:41:01 · 1022 阅读 · 0 评论 -
百度图神经网络学习——day05:图神经网络进阶模型
文章目录一、ERNISage1.ERNIESage Node2.ERNIESage Edge3.ERNIESage 1-Neighbour二、UniMP三、编程实践一、ERNISage文本图:节点与边带有文本的特殊图,文本图广泛应用于工业应用中例如搜索场景、贴吧推荐、知识图谱等。文本图的样例如下:对于文本图的建模,仅仅使用类似于GraphSage的结构建模或ERNIE的语义理解模型不能同时满足对结构和语义的理解,因此为了同时对结构和语义进行建模,提出了ERNIESage。ERNIE是一种语义理解模原创 2020-11-28 20:34:14 · 836 阅读 · 0 评论 -
百度图神经网络学习——day04:图神经网络算法(二)
文章目录一、图采样1.GraphSAGE2.PinSAGE二、邻居聚合1.GIN模型的聚合函数2.其他复杂的聚合函数三、编程实现1.GraphSage采样函数实现2.GraphSage聚合函数实现一、图采样在图神经网络中,使用的数据集可能是亿量级的数据,而由于GPU/CPU资源有限无法一次性全图送入计算资源,需要借鉴深度学习中的mini-batch思想。传统的深度学习mini-batch训练每个batch的样本之间无依赖,多层样本计算量固定;而在图神经网络中,每个batch中的节点之间互相依赖,在计算原创 2020-11-27 15:40:39 · 1487 阅读 · 0 评论 -
百度图神经网络学习——day03:图神经网络算法(一)
文章目录一、图卷积网络(Graph Convolutional Network)1.核心公式2.算法流程二、图注意力算法(GAT)1.计算方法2.多头Attention三、空间GNN四、编程实践一、图卷积网络(Graph Convolutional Network)在深度学习中,可以对图像进行卷积操作,即卷积神经网络。图像的卷积操作是将一个像素点周围的像素按照不同的权重叠加起来。将卷积的概念类比到图结构中,我们将图结构的卷积定义为将一个节点周围的邻居按照不同的权重叠加起来。1.核心公式图卷积网络的原创 2020-11-26 19:27:07 · 2063 阅读 · 1 评论 -
百度图神经网络学习——day02:图游走类模型
文章目录一、DeepWalk和node2vec1.DeepWalk2.node2vec二、methpath2vec及其变种三、编程实践1.DeepWalk实现2.SkipGram模型训练3.Node2Vec采样算法图游走算法:在图上进行游走得到游走序列,通过图表示学习利用节点之间的关系得到节点的一维表示,进而用这些一维表示进行下游人物。图游走算法最先参考的是NLP的Word2vec模型,Word2vec模型的其中一种方法是Skip Gram,即根据中心词预测上下文,之后通过负采样的方式进行优化。将W原创 2020-11-25 16:31:44 · 916 阅读 · 0 评论 -
百度图神经网络学习——day01
这里写目录标题一、图论基础二级目录三级目录一、图论基础二级目录三级目录原创 2020-11-24 14:13:48 · 643 阅读 · 0 评论