Python GCN代码实战,图卷积神经网络代码模板,GCN代码框架,直接套用

1.GCN简介

GCN(Graph Convolutional Network)是一种用于图数据的深度学习模型。它是针对图结构数据而设计的神经网络结构,能够学习节点之间的关系和图的全局特性。GCN通过在图数据上进行卷积操作,将节点的特征进行传播和聚合,从而实现节点之间的信息交互和特征学习。

GCN具有很强的适用性,可以用于推荐系统、社交网络分析、生物信息学、化学分子分析等领域。其优点包括对节点之间的关系进行建模、适用于不定长的图数据、处理稀疏图数据等。GCN已经在学术界和工业界取得了一定的成功,并且在图神经网络领域有着广泛的应用前景。

2.代码实战

版本一

这里分别定义了模型的卷积层GraphConvolutionLayer类和模型的主体GCN类,模型的卷积层就是上述公式,计算一层的特征表示,就是利用度矩阵、邻接矩阵以及特征矩阵进行信息传递,H(l)在最开始的时候就是原始的特征矩阵。

这里计算的时候把adj就是度矩阵、单位矩阵、邻接矩阵处理好之后的矩阵,都叫邻接矩阵;

import torch
import torch.nn as nn
import torch.optim as optim
import torch.nn.functional as F

class GraphConvolutionLayer(nn.Module):
    def __init__(self, input_dim, output_dim):
        super(GraphConvolutionLayer, self).__init__()
        self.linear = nn.Linear(input_dim, output_dim)

    def forward(self, x, adj_matrix):
        x = torch.matmul(adj_matrix, x)
        x = self.linear(x)
        return F.relu(x)

class GCN(nn.Module):
    def __init__(self, input_dim, hidden_dim, output_dim):
        super(GCN, self).__init__()
        self.gc1 = GraphConvolutionLayer(input_dim, hidden_dim)
        self.gc2 = GraphConvolutionLayer(hidden_dim, output_dim)

    def forward(self, x, adj_matrix):
        x = self.gc1(x, adj_matrix)
        x = self.gc2(x, adj_matrix)
        return x

# 模拟数据
adj_matrix = torch.tensor([[0, 1, 0], [1, 0, 1], [0, 1, 0]], dtype=torch.float32)
features = torch.tensor([[1, 2], [3, 4], [5, 6]], dtype=torch.float32)
labels = torch.tensor([[0.1], [0.2], [0.3]], dtype=torch.float32)

# 初始化模型
model = GCN(input_dim=2, hidden_dim=16, output_dim=1)

# 定义损失函数和优化器
criterion = nn.MSELoss()
optimizer = optim.Adam(model.parameters(), lr=0.01)

# 训练模型
for epoch in range(100):
    optimizer.zero_grad()
    output = model(features, adj_matrix)
    loss = criterion(output, labels)
    loss.backward()
    optimizer.step()

    if (epoch+1) % 10 == 0:
        print(f'Epoch [{epoch+1}/100], Loss: {loss.item()}')

版本二

这里没有单独定义图卷积类,都放到GCN类里了,其实就是邻接矩阵adj和特征矩阵X的组合计算,然后经过一层线性层,再经过激活函数就是这一层的特征表示

import torch
import torch.nn as nn
import torch.nn.functional as F
import torch.optim as optim

class GCN(nn.Module):
    def __init__(self, input_dim, hidden_dim, output_dim):
        super(GCN, self).__init__()
        self.fc1 = nn.Linear(input_dim, hidden_dim)
        self.fc2 = nn.Linear(hidden_dim, output_dim)

    def forward(self, x, adj):
        x = F.relu(self.fc1(torch.mm(adj, x)))
        x = self.fc2(torch.mm(adj, x))
        return x

# 示例数据和邻接矩阵
x = torch.randn(5, 10)  # 特征矩阵,5个节点,每个节点有10个特征
adj = torch.randn(5, 5)  # 邻接矩阵

model = GCN(input_dim=10, hidden_dim=16, output_dim=2)  # 创建GCN模型
optimizer = optim.Adam(model.parameters(), lr=0.01)  # 选择优化器
criterion = nn.CrossEntropyLoss()  # 损失函数采用交叉熵

# 训练模型
for epoch in range(100):
    optimizer.zero_grad()
    output = model(x, adj)
    
    # 假设这里有标签数据y
    y = torch.LongTensor([0, 1, 0, 1, 0])  # 5个节点的标签
    
    loss = criterion(output, y)
    loss.backward()
    optimizer.step()

# 计算训练集和验证集准确率和F1值
output = model(x, adj)
predictions = output.argmax(dim=1)
correct = (predictions == y).sum().item()
accuracy = correct / len(y)

precision = torch.true_divide(torch.sum(predictions * y), torch.sum(predictions))
recall = torch.true_divide(torch.sum(predictions * y), torch.sum(y))
f1 = 2 * (precision * recall) / (precision + recall)

print("训练集准确率:", accuracy)
print("训练集F1值:", f1.item())

 

  • 7
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

医学小达人

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值