图神经网络_task02

1.消息传递范式

本文主要参考:DataWhale图神经网络组队学习
消息传递范式是一种聚合邻居节点信息来更新中心节点信息的范式。
此范式包含三个步骤:(1)邻接节点的信息变换(2)邻接节点信息聚合到中心节点(3)聚合信息变换。
在这里插入图片描述
PyG文档中给出消息传递图神经网络的公式描述如下:
在这里插入图片描述
creating message passing networks.
对于一个图(添加自环):
在这里插入图片描述
消息传递步骤1( ϕ ( k ) \phi^{(k)} ϕ(k))如下:
在这里插入图片描述
上图体现边上的源节点(0,1,2)进行线性变换后往目标节点(0)发送特征信息。
步骤2( □ j ∈ N ( i ) \square_{j \in \mathcal{N}(i)} jN(i))如下:
在这里插入图片描述
目标节点(0)对收到的特征信息进行聚合(aggregate)。
最后一步( γ ( k ) \gamma^{(k)} γ(k))将聚合之后的信息进行变换,可以利用多层感知机等方法。

PyG中MessagePassing基类

Pytorch Geometric(PyG)提供了MessagePassing基类,它实现了消息传
播的自动处理,继承该基类可使我们方便地构造消息传递图神经网络,我
们只需定义函数,即message() 函数 ϕ \phi ϕ,和函数 γ \gamma γ,即 update()函数,以及使用的消息聚合方案,即aggr=“add” 、aggr="mean"或aggr=“max” 。

GCNConv示例

在这里插入图片描述
其中,相邻节点的特征首先通过权重矩阵 Θ \Theta Θ进行转换,然后按端点的度进
行归一化处理,最后进行加总。这个公式可以分为以下几个步骤:

  1. 向邻接矩阵添加自环边。
  2. 线性转换节点特征矩阵。
  3. 计算归一化系数。
  4. 归一化 中的节点特征。
  5. 将相邻节点特征相加("求和 "聚合)。

作业

1.请总结MessagePassing基类的运行流程。
2.请复现一个一层的图神经网络的构造,总结通过继承MessagePassing基类来构造自己的图神经网络类的规范。

总结MessagePassing基类的运行流程

运行流程:1.边上源节点往目标节点发送特征,其中发送的特征是经过线性转换以及利用计算得到的归一化系数处理之后的。 2.目标节点对收到的特征进行聚合,聚合的方式有很多种,例如mean,max,sum聚合。3.将聚合之后的信息再次进行变换,例如通过MLP进行变换。(可以没有第三步,例如GCN采用了前两步)

继承MessagePassing基类来构造自己的图神经网络类的规范。

构建自己的图神经网络如下:

x i ( k ) = 1 ∣ N ( i ) + 1 ∣ ∑ j ∈ N ( i ) ∪ { i } 2 ⋅ d e g ( i ) deg ⁡ ( i ) ⋅ deg ⁡ ( j ) ⋅ ( Θ ⋅ x j ( k − 1 ) ) \mathbf{x}_{i}^{(k)}= \frac{1} {|\mathcal{N}(i)+1|}\sum_{j \in \mathcal{N}(i) \cup\{i\}} \frac{2 \cdot {deg}(i)}{\sqrt{\operatorname{deg}(i)} \cdot \sqrt{\operatorname{deg}(j)}} \cdot\left(\boldsymbol{\Theta} \cdot \mathbf{x}_{j}^{(k-1)}\right) xi(k)=N(i)+11jN(i){i}deg(i) deg(j) 2deg(i)(Θxj(k1))
可以看到上述的图神经网络在传递信息的时候不仅用到了源节点的信息,还用到了两倍的目标节点的度的信息,并且聚合采用的是mean聚合。
下面进行代码实现:

自定义设计好的图神经网络

class My_GCN(MessagePassing):
    def __init__(self, in_channels, out_channels):
        super(My_GCN, self).__init__(aggr='mean')
        self.lin = torch.nn.Linear(in_channels, out_channels)
    
    def forward(self, x, edge_index):
        # 添加自环
        edge_index, _ = add_self_loops(edge_index, num_nodes=x.size(0))
        
        # 将输入的节点特征进行线性变换
        x = self.lin(x)
        
        # 计算归一化系数norm
        row, col = edge_index
        deg = degree(col, x.size(0), dtype=x.dtype)
        deg_inv_sqrt = deg.pow(-0.5)
        norm = deg_inv_sqrt[row] * deg_inv_sqrt[col]
        
        # 执行消息传递
        return self.propagate(edge_index, x=x, norm=norm, deg=deg.view(-1,1))
    
    def message(self, x_j, norm, deg_i):
        # 利用计算得到的归一化系数norm来归一化节点特征
        return norm.view(-1,1) * x_j * 2 * deg_i

加载数据

from torch_geometric.datasets import Planetoid
dataset = Planetoid(root='dataset/Cora', name='Cora')
dataset
data = dataset[0]
data

在这里插入图片描述

初始化网络

Net = My_GCN(dataset.num_features,dataset.num_classes)
Net

在这里插入图片描述

利用初始化好的网络进行节点更新

out_nodes_features = Net(data.x, data.edge_index)
out_nodes_features.shape

在这里插入图片描述
可以看到,节点特征由一开始的1433维,经过图神经网络之后降维成定义的节点类别7.

查看分类准确率

pred = out_nodes_features.argmax(dim=1)
pred

在这里插入图片描述
其中pred为每一个节点的预测类别。

Accuracy = int((pred[data.test_mask] == data.y[data.test_mask]).sum()) / data.test_mask.sum()
Accuracy = Accuracy.item()
Accuracy

在这里插入图片描述
(此处只是演示,该网络并没有进行训练,因此这里生成的节点表示用于分类,其准确率肯定很低)

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
# GPF ## 一、GPF(Graph Processing Flow):利用神经网络处理问题的一般化流程 1、节点预表示:利用NE框架,直接获得全每个节点的Embedding; 2、正负样本采样:(1)单节点样本;(2)节点对样本; 3、抽取封闭子:可做类化处理,建立一种通用数据结构; 4、子特征融合:预表示、节点特征、全局特征、边特征; 5、网络配置:可以是输入、输出的网络;也可以是输入,分类/聚类结果输出的网络; 6、训练和测试; ## 二、主要文件: 1、graph.py:读入数据; 2、embeddings.py:预表示学习; 3、sample.py:采样; 4、subgraphs.py/s2vGraph.py:抽取子; 5、batchgraph.py:子特征融合; 6、classifier.py:网络配置; 7、parameters.py/until.py:参数配置/帮助文件; ## 三、使用 1、在parameters.py配置相关参数(可默认); 2、在example/文件夹运行相应的案例文件--包括链接预测、节点状态预测; 以链接预测为例: ### 1、导入配置参数 ```from parameters import parser, cmd_embed, cmd_opt``` ### 2、参数转换 ``` args = parser.parse_args() args.cuda = not args.noCuda and torch.cuda.is_available() torch.manual_seed(args.seed) if args.cuda: torch.cuda.manual_seed(args.seed) if args.hop != 'auto': args.hop = int(args.hop) if args.maxNodesPerHop is not None: args.maxNodesPerHop = int(args.maxNodesPerHop) ``` ### 3、读取数据 ``` g = graph.Graph() g.read_edgelist(filename=args.dataName, weighted=args.weighted, directed=args.directed) g.read_node_status(filename=args.labelName) ``` ### 4、获取全节点的Embedding ``` embed_args = cmd_embed.parse_args() embeddings = embeddings.learn_embeddings(g, embed_args) node_information = embeddings #print node_information ``` ### 5、正负节点采样 ``` train, train_status, test, test_status = sample.sample_single(g, args.testRatio, max_train_num=args.maxTrainNum) ``` ### 6、抽取节点对的封闭子 ``` net = until.nxG_to_mat(g) #print net train_graphs, test_graphs, max_n_label = subgraphs.singleSubgraphs(net, train, train_status, test, test_status, args.hop, args.maxNodesPerHop, node_information) print('# train: %d, # test: %d' % (len(train_graphs), len(test_graphs))) ``` ### 7、加载网络模型,并在classifier配置相关参数 ``` cmd_args = cmd_opt.parse_args() cmd_args.feat_dim = max_n_label + 1 cmd_args.attr_dim = node_information.shape[1] cmd_args.latent_dim = [int(x) for x in cmd_args.latent_dim.split('-')] if len(cmd_args.latent_dim) == 1: cmd_args.latent_dim = cmd_args.latent_dim[0] model = classifier.Classifier(cmd_args) optimizer = optim.Adam(model.parameters(), lr=args.learningRate) ``` ### 8、训练和测试 ``` train_idxes = list(range(len(train_graphs))) best_loss = None for epoch in range(args.num_epochs): random.shuffle(train_idxes) model.train() avg_loss = loop_dataset(train_graphs, model, train_idxes, cmd_args.batch_size, optimizer=optimizer) print('\033[92maverage training of epoch %d: loss %.5f acc %.5f auc %.5f\033[0m' % (epoch, avg_loss[0], avg_loss[1], avg_loss[2])) model.eval() test_loss = loop_dataset(test_graphs, model, list(range(len(test_graphs))), cmd_args.batch_size) print('\033[93maverage test of epoch %d: loss %.5f acc %.5f auc %.5f\033[0m' % (epoch, test_loss[0], test_loss[1], test_loss[2])) ``` ### 9、运行结果 ``` average test of epoch 0: loss 0.62392 acc 0.71462 auc 0.72314 loss: 0.51711 acc: 0.80000: 100%|███████████████████████████████████| 76/76 [00:07<00:00, 10.09batch/s] average training of epoch 1: loss 0.54414 acc 0.76895 auc 0.77751 loss: 0.37699 acc: 0.79167: 100%|█████████████████████████████████████| 9/9 [00:00<00:00, 34.07batch/s] average test of epoch 1: loss 0.51981 acc 0.78538 auc 0.79709 loss: 0.43700 acc: 0.84000: 100%|███████████████████████████████████| 76/76 [00:07<00:00, 9.64batch/s] average training of epoch 2: loss 0.49896 acc 0.79184 auc 0.82246 loss: 0.63594 acc: 0.66667: 100%|█████████████████████████████████████| 9/9 [00:00<00:00, 28.62batch/s] average test of epoch 2: loss 0.48979 acc 0.79481 auc 0.83416 loss: 0.57502 acc: 0.76000: 100%|███████████████████████████████████| 76/76 [00:07<00:00, 9.70batch/s] average training of epoch 3: loss 0.50005 acc 0.77447 auc 0.79622 loss: 0.38903 acc: 0.75000: 100%|█████████████████████████████████████| 9/9 [00:00<00:00, 34.03batch/s] average test of epoch 3: loss 0.41463 acc 0.81132 auc 0.86523 loss: 0.54336 acc: 0.76000: 100%|███████████████████████████████████| 76/76 [00:07<00:00, 9.57batch/s] average training of epoch 4: loss 0.44815 acc 0.81711 auc 0.84530 loss: 0.44784 acc: 0.70833: 100%|█████████████████████████████████████| 9/9 [00:00<00:00, 28.62batch/s] average test of epoch 4: loss 0.48319 acc 0.81368 auc 0.84454 loss: 0.36999 acc: 0.88000: 100%|███████████████████████████████████| 76/76 [00:07<00:00, 10.17batch/s] average training of epoch 5: loss 0.39647 acc 0.84184 auc 0.89236 loss: 0.15548 acc: 0.95833: 100%|█████████████████████████████████████| 9/9 [00:00<00:00, 28.62batch/s] average test of epoch 5: loss 0.30881 acc 0.89623 auc 0.95132 ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值