目录

背景介绍

源码分析

小结一下


背景介绍

        我们在看GNN相关的论文时候,都会说到邻接矩阵与特征矩阵之间是用到了spmm,在很久的旧代码上也是这么做的,比如:

【DGL系列】简单理解graph.update_all和spmm的区别_numpy

        但是在DGL中,我们都是使用graph.update_all,而不是spmm,比如:

【DGL系列】简单理解graph.update_all和spmm的区别_GNN_02

        那么,他俩之间有什么区别?现在是不需要spmm了吗?

源码分析

 dgl.DGLGraph.update_all — DGL 2.3 documentation

        实际上,graph.update_all 并不是直接替代 spmm,而是一种更高层次的抽象,用于实现图神经网络中的消息传递和聚合操作。在 DGL 中,graph.update_all 可以实现类似于 spmm 的功能,但它提供了更灵活的接口来定义消息传递和聚合的方式。总结来说就是对spmm封装了一下,但同时还可以支持更多功能。

        它的工作流程如下:

  1. 消息构建(message passing):根据源节点的特征和边的特征生成消息。
  2. 消息传递(message passing):将消息从源节点传递到目标节点。
  3. 消息聚合(message aggregation):在目标节点上对接收到的消息进行聚合。

        了解他的工作原理,那么就能知道应该怎么用他。接下来看他是怎么工作的。

  • 如果是学习的话,建议跟着一起单步调试感受一下。
  • 也可以扩展阅读这些文章,写的比较详细:
  • DGL0.5中的g-SpMM和g-SDDMM
  • DGL-kernel的变更(2)_aten::csrspmm

        我们debug这段代码:

graph.update_all(aggregate_fn, fn.sum(msg='m', out='h'))
  • 1.

        首先,进入到了heterograph.py中的DGLHeteroGraph类中:

【DGL系列】简单理解graph.update_all和spmm的区别_工具_03

        单步调试,发现在这里进入了函数:

【DGL系列】简单理解graph.update_all和spmm的区别_GNN_04

        步入函数,来到了core.py。在这里,我们见到了很熟悉的字眼:

【DGL系列】简单理解graph.update_all和spmm的区别_工具_05

        到这里可以得出结论,实际上graph.update_all还是执行了spmm的,并且可以选择时执行spmm还是gsddmm。

        再步入invoke_gspmm函数,就是spmm的实现,

【DGL系列】简单理解graph.update_all和spmm的区别_DGL_06

        调用到ops.spmm.py中:

【DGL系列】简单理解graph.update_all和spmm的区别_python_07

        调用到backend.pytorch.sparse.py中:

【DGL系列】简单理解graph.update_all和spmm的区别_python_08

【DGL系列】简单理解graph.update_all和spmm的区别_python_09

【DGL系列】简单理解graph.update_all和spmm的区别_DGL_10

        由于这里调用的是C的接口,因此要去看dgl的源码了:

 dgl/src at master · dmlc/dgl · GitHub

        这个接口对应的C代码位置在:src/array/kernel.cc

【DGL系列】简单理解graph.update_all和spmm的区别_DGL_11

        调用的是同文件下的SpMM函数。而且可以发现,目前只支持CSC和COO的格式。有意思的是CSC格式用的确实SpMMCsr函数(他俩很像,CSC列压缩、CSR行压缩):

【DGL系列】简单理解graph.update_all和spmm的区别_工具_12

        然后根据cuda还是cpu,去找对应的具体实现,比如对于cuda:src/array/cuda/spmm.cu

【DGL系列】简单理解graph.update_all和spmm的区别_DGL_13

         这里可以看到,调用了cusparse的CusparseCsrmm2函数。需要注意的是,SpMMCsr会调用cusparse::CusparseCsrmm2,而SpMMCoo会调用cuda::SpMMCoo,前者就在当前文件中,后者则定义在spmm.cuh中。并且,SpMMCoo中的op定义在/src/array/cuda/functor.cuh中,最终会调用op.call来完成addmul等计算(看Call部分)。

【DGL系列】简单理解graph.update_all和spmm的区别_工具_14

小结一下

        总的来说,我们知道了graph.update_all内部实际上还是执行了spmm操作,只是graph.update_all更装了spmm,并且提供了更灵活的接口来定义消息传递和聚合的方式,使得用户可以更方便地实现复杂的图神经网络操作。确实,内部有很多实现细节,这里我们先不关注。