小白科研笔记:简析论文DeepGCNs: Can GCNs Go as Deep as CNNs

1. 前言

这篇博客主要分析一篇ICCV 2019的一篇深度图卷积网络性能的文章DeepGCNs: Can GCNs Go as Deep as CNNs。这篇文章的核心创新点是把残差连接(Residual Connection)和全连接方式(Dense Connection)从二维卷积迁移到图卷积中,同时把空洞卷积(Dilated Convolution)概念延伸至图卷积中。这篇文章其实比较通俗易懂,咱就直接讲解核心点。

2. 创新点

2.1 图神经网路的残差连接

作者所做的所有实验都是关于室内场景下点云语义分割的。语义分割的整体网络如下面的左图所示,分为Backbone BlockFusion Block,和Prediction Block三个部分组成。无论是图神经网络的普通连接形式,残差连接形式,亦或是全连接形式,都是在Backbone Block上做改进。残差连接的图神经网络(ResGCN)如下图所示,形式上和二维卷积残差连接是一样的。

在这里插入图片描述
图1:图卷积网络的残差连接和全连接示意图

2.2 图神经网络的全连接

全连接的图神经网络(DenseGCN)如上图右图所示,形式上和二维卷积全连接是一样的。

2.3 图神经网络的空洞卷积

空洞卷积的概念来自二维卷积。这篇论文的作者做了推广,如下图所示。二维卷积的空洞卷积非常好理解。扩展到图卷积中,“空洞”的概念就跟近邻点距离有关系。拿KNN近邻图举例,给目标点周围的点按照距离远近排好顺序。如果是普通图卷积,就取距离顺序为1,2,3,4(间距为1)的近邻点计算目标点的特征。如果是空洞卷积,可能取距离顺序为1,3,5,7(间距为2),或者1,5,9,13(间距为4)的近邻点计算目标点的特征。

在这里插入图片描述
图2:二维卷积和图卷积的空洞卷积示意图

2.4 实验结果

作者做了一个非常详尽的实验,如下所示。可以学习一下作者设计实验的思路。编号为ResGCN-28W的图卷积网路取得最优效果。可见采用残差连接的,动态边的,适当深度的,大宽度的图卷积网络有最好的效果。

在这里插入图片描述
图3:实验结果(Dynamic指动态边,可以参考EdgeConv论文)

3. 结束语

这篇文章结构和内容都很简单,实验也只是用了一个数据集,但是它的思想还是很不错的。

  • 2
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值