作者来自华盛顿大学
II.related works
1. 高效卷积神经网络架构:
- 最先进的高效网络大多使用深度可分离卷积以降低计算复杂度。
- 深度可分离卷积将卷积分为两个步骤:深度卷积和逐点卷积。
- 另一种高效卷积形式是组卷积,其中输入通道和卷积核被分为组,每个组独立进行卷积。
- ESPNetv2使用这些高效卷积形式扩展了ESPNet网络,并使用深度可分离“扩张”卷积来学习来自大有效感受野的表示。
2. 神经网络架构搜索:
- 这些方法在预定义的字典中搜索巨大的网络空间,包括不同的卷积层、不同的卷积单元和不同的滤波器尺寸。
- 最近的基于搜索的方法已经为MobileNetv2等带来了改进,预计这些方法也将提高ESPNetv2的性能。
3. 网络压缩:
- 这些方法通过修剪网络连接或通道来提高预训练网络的推理。
- 由于CNN具有大量冗余权重,这些方法通过参数的稀疏性获得了效率提升。
4. 低比特表示:
- 这是改善预训练网络推理的另一种方法,通过量化网络权重使用低比特表示来实现。
- 类似于网络压缩方法,这些方法也与笔记中的工作相辅相成。
总的来说,笔记提到了不同的方法来提高神经网络的效率和性能,包括高效卷积、网络架构搜索、网络压缩和低比特表示。同时指出这些方法与提出的ESPNetv2网络相辅相成,可以相互增强性能。
III.ESPNetv2
3.1深度扩张可分离卷积
这一节详细介绍了ESPNetv2架构中的深度可分离扩张卷积,该卷积形式能够有效地学习大的有效感受野中的表示。与标准卷积相比,深度可分离扩张卷积通过分解卷积操作来实现轻量级过滤,从而降低了计算成本。这种卷积形式的介绍为后续对ESPNetv2网络的理解提供了基础。
3.2. EESP 块
描述了一个新的网络单元EESP,它利用深度可分离扩张和组逐点卷积设计,专为边缘设备而设计。该单元受ESPNet架构的启发,基于ESP模块构建,使用了减少-分割-变换-合并的策略。通过组逐点和深度可分离扩张卷积,该单元的计算复杂度得到了显著的降低。进一步,描述了一种带有捷径连接到输入图像的分层EESP单元,以更有效地学习多尺度的表示。
3.3. Network architecture
ESPNetv2网络采用了EESP单元构建,并在每个空间级别上重复多次以增加网络的深度。为了保持相同的计算复杂度,特征图在每次下采样操作后都会翻倍。在实验中,扩张率r与EESP单元中的分支数量成正比。为了选择有意义的卷积核,他们限制了每个空间级别的有效感受野,并根据分支数量设置了组逐点卷积的组数。整体ESPNetv2网络架构根据不同的计算复杂度进行了展示。
4.实验
实验表明EESP在图像分类,语义分割,对象检测、语言建模等方面都取得了很好的效果(后略)
5.imagenet数据集的消融实验
在这个实验中,作者对ESPNetv2网络的不同设计选择进行了实验分析。结果表明,深度可分离扩张卷积是更有效的卷积形式,并且分层特征融合(HFF)、长程捷径连接以及循环学习计划都能够有效提高网络性能,而不增加网络的复杂性。这些研究为设计高效和准确的深度学习网络提供了重要的指导。