Xception来源论文《Xception: Deep Learning with Depthwise Separable Convolutions》读后总结

前言

这是一些对于论文《Deep Learning with Depthwise Separable Convolutions》的简单的读后总结,首先先奉上该文章的下载超链接:Xception

这篇文章是由Google公司的Francois Chollet完成的,其探究了不同于寻常深度卷积神经网络的结构,并将其和众多优秀的网络在ImageNet数据集和JFT数据集上进行了对比。

文章主要内容与贡献

该文章的贡献为:

  1. 设计了 Xception 网络;
  2. 探究了不同数据集对网络的影响;
  3. 探究了点(pointwise)卷积后非线性激活函数对深度网络的影响。

设计了 Xception 网络

Xception 模块是由Inception模块改进而来的,其拥有比Inception-v3更好的效果。首先回顾一下Inception-v3模块,如下图所示:
Inception-v3
下图是简化版的Inception模块的结构图:
简化版的Inception模块

简化的版本中均变为了先 1 × 1 1\times1 1×1的卷积再 3 × 3 3\times3 3×3的卷积,总体看上去比Inception-v3要简洁了许多。

上述的简化版的Inception模块可以被等效为:
等效的简化版的Inception模块
上述模块将三个 1 × 1 1\times1 1×1卷积合成为了一个 1 × 1 1\times1 1×1卷积,由此作者还提出了一个极端情况下的简化Inception模块,如下所示:
极端情况下的等效的简化版的Inception模块

Xception是一种完全基于深度可分卷积层的卷积神经网络体系结构。作者假设:卷积神经网络特征映射中的交叉通道相关性和空间相关性的映射可以完全解耦。以下是Xception的整体结构:
在这里插入图片描述
上图中,数据首先通过入口流,然后通过中间流重复八次,最后通过出口流。所有卷积层和分离卷积层后面是批处理规范化。所有分离卷积层使用的深度乘数为1(无深度展开)。该网络融合了Inception和ResNet,使得其深度有36层时还能有更好的效果。

探究了不同数据集对网络的影响

这篇文章不仅使用了ImageNet数据集,还使用了更大的JFT数据集,通过对不同数据集的比较,验证Xception的优异性能。
以下是实验结果,首先是ImageNet数据集上的实验:
ImageNet数据集上的实验
由上可知,Xception在ImageNet上是由于其它比较算法的,但对Inception-v3的优势并不明显。

接下来是在JFT数据集上单裁剪单模型的实验,此处仅有Inception-v3和Xception,有趣的是该实验做了没有全连接层和有全连接层的实验:
JFT数据集上单裁剪单模型的实验
由上可知,不管有无全连接层,Xception都较大幅度的优于Inception-v3,且对于这两个网络,有全连接层都优于无全连接层。

接下来是Xception和Inception-v3在ImageNet数据集上的比较:
Xception和Inception-v3在ImageNet数据集上的比较
由上可知,随着迭代次数增加,Xception的准确度增加得比Inception更快更好。

下图是Xception和Inception-v3在JFT数据集上的比较,此处是无全连接层时的实验:
在这里插入图片描述
由上可知,JFT数据集上的收敛没有ImageNet数据集平滑,同样的,Xception的准确度增加得比Inception更快更好,且Xception的优势更大。

下图是Xception和Inception-v3在JFT数据集上的比较,此处是有全连接层时的实验:
在这里插入图片描述
由上可知,JFT数据集上的收敛没有ImageNet数据集平滑,同样的,Xception的准确度增加得比Inception更快更好,且Xception的优势更大。

下图是在ImageNet数据集上有无残差网络设计的Xception的比较图:
在这里插入图片描述
可以轻松的发现,残差网络的思想对于Xception至关重要。

作者强调的一点是,Xception和Inception-v3的参数数量基本相同,如下表所示:
Xception和Inception-v3的参数数量
因此选用Inception-v3来与Xception作比较可以验证,Xception优于Inception-v3不是因为Xception的参数更多,而是因为Xception的网络结构和设计优于Inception-v3。

探究了点(pointwise)卷积后非线性激活函数对深度网络的影响

下图是有无激活函数对Xception的准确率的影响:
在这里插入图片描述
由图可知,点卷积后没有激活函数时的效果最好,ELU其次,ReLU最差,作者分析这是因为在深的网络中,ELU和ReLU导致信息丢失过多,从而使得网络性能下降。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
本课程适合具有一定深度学习基础,希望发展为深度学习之计算机视觉方向的算法工程师和研发人员的同学们。基于深度学习的计算机视觉是目前人工智能最活跃的领域,应用非常广泛,如人脸识别和无人驾驶中的机器视觉等。该领域的发展日新月异,网络模型和算法层出不穷。如何快速入门并达到可以从事研发的高度对新手和中级水平的学生而言面临不少的挑战。精心准备的本课程希望帮助大家尽快掌握基于深度学习的计算机视觉的基本原理、核心算法和当前的领先技术,从而有望成为深度学习之计算机视觉方向的算法工程师和研发人员。本课程系统全面地讲述基于深度学习的计算机视觉技术的原理并进行项目实践。课程涵盖计算机视觉的七大任务,包括图像分类、目标检测、图像分割(语义分割、实例分割、全景分割)、人脸识别、图像描述、图像检索、图像生成(利用生成对抗网络)。本课程注重原理和实践相结合,逐篇深入解经典和前沿论文70余篇,图文并茂破译算法难点, 使用思维导图梳理技术要点。项目实践使用Keras框架(后端为Tensorflow),学员可快速上手。通过本课程的学习,学员可把握基于深度学习的计算机视觉的技术发展脉络,掌握相关技术原理和算法,有助于开展该领域的研究与开发实战工作。另外,深度学习之计算机视觉方向的知识结构及学习建议请参见本人CSDN博客。本课程提供课程资料的课件PPT(pdf格式)和项目实践代码,方便学员学习和复习。本课程分为上下两部分,其中上部包含课程的前五章(课程介绍、深度学习基础、图像分类、目标检测、图像分割),下部包含课程的后四章(人脸识别、图像描述、图像检索、图像生成)。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值