Deeper Depth Prediction with Fully Convolutional Residual Networks

这篇就是上文采用的那个encoder-deenconder结构。介绍中说不需要任何后处理,比如CRF,实力嘲讽用了CRF还慌称端到端的渣渣。前面的网络采用residual 网络。loss是Huber loss。单目去做深度是一个非常神奇的东西,一直想不明白,可是文中的说从视觉色彩中强行读出深度信息这句话宽慰了我瑟瑟发抖的内心。MRF,CRF这些可以做吧。。

网络的收缩明明是方便计算,计算快,该文说是可以接受更大的接受域,因此可以捕捉更多的全局信息,是不是洒?

是不是所有的这类网络输出像素值都是输入的一半?我大flownet也是如此啊~~

收缩部分采用alexnet,VGG16,因为权重容易拟合,OK,很现实。

AlexNet的接受域是151×151像素,而VGG16的接受域像素则是276×276。看来对于网络的输入分辨率还是很有说法的。

ResNet和skip层配合使用将多个卷积合并,每个卷积后面还带着一个batch normalization,你告诉我ResNet有什么好的?可能好处是层数虽然很多,但是不会面临梯度消失或者网络退化(什么叫做网络退化?degradation)。另外一个好处就是更大的接受域(看来这个不错哎~)ResNet-50可以达到483×483大小的接受域(看来这个网络对于输入分辨率还是蛮敏感的~)使用residual 反卷积可以缩小权重,不然太耗内存了(深有体会!),同时也可以达到高性能。所以residual值得一试~!

网络分为两块,第一块是ResNet-50,第二块是上池化和反卷积层。总之,得到最终的结果。


Up-Projection Block

 反池化是提升图片的分辨率。这部分有四块,每个2×2核的反池化跟在5×5卷积后面,作为反卷积(???唬我呢),只有四块,五块性能没提高,反而耗内存。

就是通过简单的up-convolution和up-sample组合成一些res-bocks。


up-convolution和up-projection。图a,标准的up-convolution。图b,更快的up-convolution。c,本文up-projection块,后面接着residual logic。图d比c更快的版本。

可以发现图c的up-projection就是在up-convolution后面加上一个3×3的卷积,同时再加上一个从低质量分辨率特征映射至最终结果的projection连接。一般这种连接up-convolution都是5×5大小的。这种projection结构比up-convolution更加高级一点因为里面有一个projection连接的思想(flownet笑而不语,这种结构一定是最好的,这里的projection有一种concat中的deconv+conv的想法,只不过那个的conv是前面的,而这个可能deconv和conv比较近,这么近很可能失效~不知结果如何),这些块串起来使得特征映射尺寸越来越大。

Fast Up-convolution。本文还有一个贡献是将up-convolution更加的有效,减少训练时间。

Fast Up-Convolution

就是flownet当中的反卷积为deconvolution,这个卷积相当于是转置卷积,而这篇论文中采用的是up-convolution。前文也说了,有了up-pooling,这就造成了75%的地方都是0,这样卷积跟放大的特征层进行卷积的话会有很多地方都是无效计算,跟0计算有什么意义呢~因此,将卷积分块,分成四部分,分别计算。然后再聚合,这就节省了计算时间。(私以为,还是deconvolution好一点~up-convolution不太好)这也就解释了图2中的c和d。为什么有四个形状奇特的卷积核出现。

Loss Function

一般都是L2loss,而本文采用berHu作为损失函数,就是在值在C范围内为|X|,L1范数,超过C时就是L2损失。在C处有一个一阶差分的跳变。BerHu对两种损失都有了一种平衡。大残差的时候使用L2项,同时,对于小残差梯度,L1效果比L2要好。

实验

首先,github上面作者没有提供训练代码。其次,测试代码有两种,一种matlab的,还有一种tensorflow的。我跑的是tensorflow的。

结果呢,不光速度奇慢无比,而且效果很渣。话不多说,上图,测试图片是电脑win7里面自带的图片





  • 5
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 23
    评论
最近,对于图神经网络的研究日益深入,引起了广泛关注。图神经网络是一种能够对图数据进行建模和分析的神经网络模型。它可以处理任意结构的图形数据,如社交网络、蛋白质互作网络等。 在过去的几年中,研究者们提出了许多图神经网络的模型和方法。然而,这些方法仍然面临一些挑战,例如有效地处理大型图形数据、学习高质量的图嵌入表示以及推理和预测复杂的图结构属性等。 为了克服这些挑战,研究人员开始通过增加神经网络的深度来探索更深的图神经网络模型。深度模型具有更强大的表达能力和学习能力,可以更好地捕捉图数据中的关系和模式。这些深层图神经网络可以通过堆叠多个图神经网络层来实现。每个图神经网络层都会增加一定的复杂性和抽象级别,从而逐渐提高图数据的表达能力。 除了增加深度外,研究人员还提出了一些其他的改进来进一步提高图神经网络的性能。例如,引入注意力机制可以使模型能够自动地选择重要的节点和边来进行信息传播。此外,研究人员还研究了如何通过引入图卷积操作来增强图数据的局部性,从而提高图神经网络模型的效果。 综上所述,对于更深层的图神经网络的研究将在处理大规模图形数据、学习高质量的图表示以及进行复杂图结构属性的推理方面取得更好的性能。随着深度图神经网络的推广和应用,我们可以预见它将在许多领域,如社交网络分析、推荐系统和生物信息学中发挥重要作用,为我们带来更多的机遇和挑战。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 23
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值