![](https://img-blog.csdnimg.cn/20190918140145169.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
图神经网络
文章平均质量分 96
图神经网络
阿_边
这个作者很懒,什么都没留下…
展开
-
Datawhale组队学习-图神经网络(三)
Datawhale组队学习-图神经网络(三)Taks 03 基于图神经网络的节点表征学习此次学习分为以下步骤:获取并分析数据集、构建一个方法用于分析节点表征的分布。学习MLP神经网络的理论,观察MLP神经网络用于节点分类的表现,观察基于MLP神经网络学习到的节点表征的分布。学习GCN, GAT这两个图神经网络的理论,对比它们在节点分类任务中的表现以及它们学习到的节点表征的质量。比较MLP,GCN,GAT在节点表征学习能力上的差异。一、准备工作获取并分析数据集from torch_geo原创 2021-06-24 02:07:50 · 196 阅读 · 0 评论 -
Datawhale组队学习-图神经网络(四)
Datawhale组队学习-图神经网络(四)原创 2021-06-28 02:49:56 · 236 阅读 · 0 评论 -
Datawhale组队学习-图神经网络(二)
Datawhale组队学习-图神经网络(二)Taks 02 消息传递范式此次学习分为以下步骤:学习图神经网络生成节点表征的范式–消息传递(Message Passing)范式。分析PyG中的MessagePassing基类,通过继承此基类构造一个图神经网络。以继承MessagePassing基类的GCNConv类为例,学习如何通过继承MessagePassing基类来构造图神经网络。对MessagePassing基类进行剖析。学习在继承MessagePassing基类的子类中覆写messag原创 2021-06-20 02:05:41 · 171 阅读 · 0 评论 -
Datawhale组队学习-图神经网络(五)
Datawhale组队学习-图神经网络(五)此内容出自Cluster-GCN的论文:Cluster-GCN: An Efficient Algorithm for Training Deep and Large Graph Convolutional Network由于随着图神经网络层数增加,计算成本呈指数增长。普通的基于SGD的图神经网络的训练方法,面临着保存整个图的信息和每一层每个节点的表征到内存(显存)而消耗巨大内存(显存)空间的问题。虽然已经有一些论文提出了无需保存整个图的信息和每一层每个节点原创 2021-07-02 00:36:05 · 157 阅读 · 0 评论 -
Datawhale组队学习-图神经网络(一)
Datawhale组队学习-图神经网络(一)Taks 01学习书籍、工具及软件本次学习资料为Datawhale社区在Github上的开源项目和官方文档电脑配置为Macbook m1,操作系统为MacOS 11.4 Big Sur。所用编程环境为Anaconda 下的 Jupyter Notebook,python 3.8.8。学习图神经网络的原因在过去的深度学习应用中,我们接触的数据形式主要是这四种:矩阵、张量、序列(sequence)和时间序列(time series)。然而来自现实世界应原创 2021-06-15 21:16:41 · 428 阅读 · 0 评论