组队学习-图神经网络 Taks 02

1、MessagePassing基类的运行流程

   MessagePassing类封装了“消息传递”的运行流程,可以用于构造消息传递图神经网络。主要参数定义如下:

MessagePassing(aggr="add", flow="source_to_target", node_dim=-2)(对象初始化方法):

  • aggr:定义要使用的聚合方案("add"、"mean "或 "max");

  • flow:定义消息传递的流向("source_to_target "或 "target_to_source");

  • node_dim:定义沿着哪个维度传播,默认值为-2

 对于简单的图卷积神经网络,数学定义为:

\mathbf{x}_i^{(k)} = \sum_{j \in \mathcal{N}(i) \cup \{ i \}} \frac{1}{\sqrt{\deg(i)} \cdot \sqrt{\deg(j)}} \cdot \left( \mathbf{\Theta} \cdot \mathbf{x}_j^{(k-1)} \right),

构造过程可以分为5步:

(1)向邻接矩阵添加自循环边。

(2)对节点表征做线性变换。

(3)计算归一化系统。

(4)归一化邻接节点的表征。

(5)聚合邻接节点表征。

 

from torch_geometric.nn import MessagePassing
from torch_geometric.utils import add_self_loops, degree
import torch


class GCNConv(MessagePassing):
    def __init__(self, in_channels, out_channels):
        super(GCNConv, self).__init__(aggr='add')  # "Add" aggregation (Step 5).
        self.lin = torch.nn.Linear(in_channels, out_channels)

    def forward(self, x, edge_index):

        # Step 1 向邻接矩阵添加自循环边
      denoted by fill_value.
        edge_index, _ = add_self_loops(edge_index, num_nodes=x.size(0))

        # Step 2: 对节点表征做线性变换.
        x = self.lin(x)

        # Step 3: 计算归一化系统
        row, col = edge_index
        deg = degree(col, x.size(0), dtype=x.dtype)
        deg_inv_sqrt = deg.pow(-0.5)
        deg_inv_sqrt[deg_inv_sqrt == float('inf')] = 0
        norm = deg_inv_sqrt[row] * deg_inv_sqrt[col]

        # Step 5: 聚合邻接节点表征.
        return self.propagate(edge_index, x=x, norm=norm)

    def message(self, x_j, norm):
        # x_j has shape [E, out_channels]

        # Step 4: 归一化邻接节点的表征.
        return norm.view(-1, 1) * x_j
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
引用\[1\]和\[3\]中的代码中,deg_inv_sqrt是一个归一化系数,用于归一化邻接节点的节点表征。具体来说,它是通过计算节点的度数的平方根的倒数得到的。在代码中,deg_inv_sqrt的计算方式是通过对节点的度数进行幂运算和倒数运算得到的。在计算过程中,如果度数的倒数为无穷大,则将其设置为0。最后,通过将归一化系数与邻接节点的节点表征相乘,实现了对邻接节点表征的归一化操作。 #### 引用[.reference_title] - *1* [组队学习-神经网络 Taks 02](https://blog.csdn.net/shellup/article/details/118059766)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [GCNConv源码学习](https://blog.csdn.net/tatadeeyes/article/details/129122343)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [神经网络二:消息传递神经网络](https://blog.csdn.net/alterxu/article/details/118034359)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值