![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
图神经网络
文章平均质量分 61
图神经网络
陨星落云
这个作者很懒,什么都没留下…
展开
-
在linux下配置pytorch1.8.0+cuda11.1+pytorch-geometric
1.安装pytorch1.8.0+cuda11.1pip install torch==1.8.0+cu111 torchvision==0.9.0+cu111 torchaudio==0.8.0 -f https://download.pytorch.org/whl/torch_stable.html2…离线安装包下载:https://pytorch-geometric.com/whl/3…离线安装:最好在从conda虚拟环境下安装。按照在线安装的顺序,安装4个库:pip install原创 2021-03-31 22:24:16 · 4843 阅读 · 0 评论 -
几何深度学习中的不同方法
第1部分:在这里,我们开始一个系列,讨论用于不同网络类型的各种几何深度学习算法。介绍在这一系列故事中,我们将介绍基于不同方法的不同几何深度学习(GDL)算法。目的给定一组观察结果,机器学习(ML)是预测的艺术。观察结果可以采用各种形式,例如文本,图像,视频,并且可以具有明确的标签,例如主题,类,注释等。深度学习(DL)是ML的一个新兴领域,它主要关注神经网络。DL算法比传统的ML算法更复杂,并且可以利用数据中的细微和间接关系。DL模型捕获这些关系可以提高大量任务的性能。在大多数ML&DL应用程序中翻译 2020-11-24 22:14:52 · 689 阅读 · 0 评论 -
GraghSAGE算法
引言在GCN的博文中我们重点讨论了图神经网络的逐层传播公式是如何推导的,然而,GCN的训练方式需要将邻接矩阵和特征矩阵一起放到内存或者显存里,在大规模图数据上是不可取的。其次,GCN在训练时需要知道整个图的结构信息(包括待预测的节点), 这在现实某些任务中也不能实现(比如用今天训练的图模型预测明天的数据,那么明天的节点是拿不到的)。GraphSAGE的出现就是为了解决这样的问题,这篇博文中我们将会详细得讨论它。Inductive learning v.s. Transductive learning首转载 2020-11-20 09:14:51 · 1016 阅读 · 0 评论 -
如何安装pytorch_geometric库
方法一:在conda中安装方法conda install -c conda-forge pytorch_geometric方法二:通过二进制安装我们为所有主要的OS / PyTorch / CUDA组合提供压轮:确保至少安装了PyTorch 1.4.0:$ python -c "import torch; print(torch.__version__)">>> 1.7.0查找PyTorch安装的CUDA版本:$ python -c "import torch;原创 2020-11-16 22:20:09 · 2277 阅读 · 5 评论 -
谱图卷积原理
原创 2020-10-06 10:00:58 · 684 阅读 · 0 评论 -
图神经网络(GNN)简介
资料来源:Manuchi,通过图片(CC0)Graph Neural Network(GNN)由于具有分析图形结构数据的能力而受到了广泛的关注。本文对Graph Neural Network进行了简要介绍。它涵盖了一些图论,以便于理解图和分析图时遇到的问题。然后介绍了不同形式的Graph神经网络及其原理。它还涵盖了GNN可以做什么以及GNN的一些应用。图论首先,我们需要知道什么是图。图是一种由两个部分组成的数据结构:顶点*和edge*。它用作分析对象和实体之间成对关系的数学结构。通常,将图定义为G.翻译 2020-10-06 09:22:55 · 18198 阅读 · 2 评论 -
理解图卷积网络的节点分类
理解图卷积网络的节点分类在过去的十年中,神经网络取得了巨大的成功。但是,只能使用常规或欧几里得数据来实现神经网络的早期变体,而现实世界中的许多数据都具有非欧几里得的底层图形结构。数据结构的不规则性导致了图神经网络的最新发展。在过去的几年中,正在开发图神经网络的各种变体,其中之一就是图卷积网络(GCN)。GCN也被视为基本的图神经网络变体之一。在本文中,我们将更深入地研究由Thomas Kipf和Max Welling开发的图卷积网络。我还将在使用NetworkX构建第一个图形时给出一些非常基本的示例。翻译 2020-08-30 10:39:18 · 6920 阅读 · 4 评论