学习上手PyG——一个基于PyTorch的图神经网络库

PyG: 一个基于PyTorch的图神经网络库

图神经网络(GNN)是一种用于处理结构化数据的深度学习模型,它可以捕捉数据中的图形结构和特征信息,从而实现各种应用,如节点分类、图分类、链接预测、推荐系统等。然而,由于图数据的不规则性和复杂性,使用传统的深度学习框架(如TensorFlow或PyTorch)来实现GNN并不容易,需要编写大量的底层代码和优化算法。

为了解决这个问题,PyTorch Geometric(简称PyG)应运而生。PyG是一个基于PyTorch构建的库,可轻松编写和训练GNN,用于与结构化数据相关的广泛应用。它包括从各种已发表的论文中的图和其他不规则结构(也称为几何深度学习)的各种方法。

Logo

PyG的主要特点

  • 高效:PyG利用高效的C++后端和GPU加速来实现快速的图操作和批处理。
  • 易用:PyG提供了简洁且一致的API,使得用户可以方便地定义自己的图数据、模型和训练流程。
  • 灵活:PyG支持多种类型的图数据,如有向图、无向图、异构图、动态图等,并且允许用户自定义自己的消息传递函数和聚合函数。
  • 丰富:PyG包含了超过60种预定义的GNN层和模型,涵盖了当前最先进的研究成果,并且提供了大量的示例代码和教程。
  • 兼容:PyG可以无缝地与其他PyTorch库集成,如torchvision、torchtext等,并且支持多种常见的图数据格式,如DGLGraph、NetworkX等。

PyG安装及测试

要安装PyG,首先需要安装好PyTorch。根据你使用的操作系统和CUDA版本,在官网上选择合适的命令来安装。例如,在Linux系统上使用CUDA 10.2版本,则可以执行以下命令:

pip install torch torchvision torchaudio

然后,在官网上选择合适的命令来安装PyG。例如,在Linux系统上使用CUDA 10.2版本,则可以执行以下命令:

pip install torch-scatter -f https://data.pyg.org/whl/torch-1.10.0+cu102.html
pip install torch-sparse -f https://data.pyg.org/whl/torch-1.10.0+cu102.html
pip install torch-cluster -f https://data.pyg.org/whl/torch-1.10.0+cu102.html
pip install torch-spline-conv -f https://data.pyg.org/whl/torch-1.10.0+cu102.html
pip install torch-geometric

注意:如果你使用其他版本或平台,请根据提示修改相应参数。

安装完成后,可以通过以下代码来测试是否成功:

import torch
import torch_geometric

print(torch.__version__)
print(torch_geometric.__version__)

如果输出类似以下内容,则说明安装成功:

1.10.0+cu102
2.0.2

PyG的基本概念

图神经网络是一种处理图结构数据的深度学习模型,它可以有效地捕捉图中节点和边的特征和关系,从而实现各种图分析任务,如节点分类、链接预测、图生成等。PyG是一个专门为图神经网络设计的库,它基于PyTorch的张量操作和自动求导机制,提供了以下几个核心概念:

  • Data:Data类是PyG中表示图数据的基本单元,它包含了节点特征、边索引、边特征等属性,以及一些可选的辅助信息,如节点标签、边权重等。Data类可以方便地从各种格式(如numpy数组、scipy稀疏矩阵、networkx图等)转换而来,也可以轻松地转换为其他格式。
  • Dataset:Dataset类是PyG中表示图数据集合的容器,它可以包含多个Data对象,并提供了一些便利的方法,如划分训练集、验证集和测试集、随机打乱顺序、批量加载数据等。Dataset类可以从本地或远程加载预定义的公开数据集(如Cora、CiteSeer等),也可以自定义数据集。
  • Transform:Transform类是PyG中表示对图数据进行变换或增强的函数,它可以对Data对象或Dataset对象进行操作,实现各种功能,如添加或删除节点或边、重新编号节点或边、计算节点或边的度数或邻居数等。Transform类可以组合多个函数形成复合变换,并支持用户自定义变换函数。
    新编号节点或边、计算节点或边的度数或邻居数等。Transform类可以组合多个函数形成复合变换,并支持用户自定义变换函数。
  • MessagePassing:MessagePassing类是PyG中实现图神经网络层的基类,它遵循了消息传递范式(message passing paradigm),即每个节点通过发送和接收与其相连的边上的消息来更新自己的状态。MessagePassing类提供了一个抽象方法message()来定义消息函数(message function),即如何根据源节点和目标节点以及边上的信息生成消息;以及一个抽象方法update()来定义更新函数(update function),即如何根据接收到消息。
  • 2
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
这里提供一个简单的神经网络PyTorch实现,用于节点分类任务。 首先,我们需要导入必要的: ```python import torch import torch.nn as nn import torch.nn.functional as F from torch_geometric.datasets import Planetoid import torch_geometric.nn as pyg_nn import torch_geometric.transforms as T ``` 然后,我们需要加载数据集。这里使用了Planetoid数据集中的Cora数据集。 ```python dataset = Planetoid(root='/data', name='Cora', transform=T.NormalizeFeatures()) data = dataset[0] ``` 接下来,我们定义一个简单的神经网络模型。这个模型包含一个GCN层和一个线性层。 ```python class Net(torch.nn.Module): def __init__(self): super(Net, self).__init__() self.conv1 = pyg_nn.GCNConv(dataset.num_node_features, 16) self.fc = torch.nn.Linear(16, dataset.num_classes) def forward(self, data): x, edge_index = data.x, data.edge_index x = self.conv1(x, edge_index) x = F.relu(x) x = F.dropout(x, training=self.training) x = self.fc(x) return F.log_softmax(x, dim=1) ``` 在forward函数中,我们首先将节点特征x和边信息edge_index传入GCN层中,得到GCN层的输出。然后,我们对输出进行ReLU激活和dropout操作,最后将其输入线性层进行分类。 接下来,我们定义训练函数和测试函数。 ```python def train(model, optimizer, data): model.train() optimizer.zero_grad() out = model(data) loss = F.nll_loss(out[data.train_mask], data.y[data.train_mask]) loss.backward() optimizer.step() return loss.item() def test(model, data): model.eval() out = model(data) pred = out.argmax(dim=1) acc = pred[data.test_mask].eq(data.y[data.test_mask]).sum().item() / data.test_mask.sum().item() return acc ``` 在训练函数中,我们首先将模型设为训练模式,然后使用优化器将梯度清零。接着,我们将数据传入模型中,得到输出并计算损失。最后,我们反向传播并更新模型参数。 在测试函数中,我们首先将模型设为测试模式,然后将数据传入模型中得到输出。接着,我们将输出转换为预测结果,并计算准确率。 最后,我们开始训练和测试模型。 ```python model = Net() optimizer = torch.optim.Adam(model.parameters(), lr=0.01, weight_decay=5e-4) for epoch in range(200): loss = train(model, optimizer, data) acc = test(model, data) print('Epoch {}, Loss: {:.4f}, Test Acc: {:.4f}'.format(epoch, loss, acc)) ``` 这里我们使用Adam优化器和交叉熵损失函数,进行200个epoch的训练。每个epoch结束后,我们输出当前的损失和测试准确率。 完整代码如下: ```python import torch import torch.nn as nn import torch.nn.functional as F from torch_geometric.datasets import Planetoid import torch_geometric.nn as pyg_nn import torch_geometric.transforms as T dataset = Planetoid(root='/data', name='Cora', transform=T.NormalizeFeatures()) data = dataset[0] class Net(torch.nn.Module): def __init__(self): super(Net, self).__init__() self.conv1 = pyg_nn.GCNConv(dataset.num_node_features, 16) self.fc = torch.nn.Linear(16, dataset.num_classes) def forward(self, data): x, edge_index = data.x, data.edge_index x = self.conv1(x, edge_index) x = F.relu(x) x = F.dropout(x, training=self.training) x = self.fc(x) return F.log_softmax(x, dim=1) def train(model, optimizer, data): model.train() optimizer.zero_grad() out = model(data) loss = F.nll_loss(out[data.train_mask], data.y[data.train_mask]) loss.backward() optimizer.step() return loss.item() def test(model, data): model.eval() out = model(data) pred = out.argmax(dim=1) acc = pred[data.test_mask].eq(data.y[data.test_mask]).sum().item() / data.test_mask.sum().item() return acc model = Net() optimizer = torch.optim.Adam(model.parameters(), lr=0.01, weight_decay=5e-4) for epoch in range(200): loss = train(model, optimizer, data) acc = test(model, data) print('Epoch {}, Loss: {:.4f}, Test Acc: {:.4f}'.format(epoch, loss, acc)) ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Yuetianw

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值