残差网络(ResNet)自2015年提出以来,其典型的残差学习模块和跨层连接设计产生了广泛影响,成为视觉领域的Backbone网络之一。经过近10年的发展,围绕ResNet产生了非常丰富的变体和扩展设计。本文将回顾ResNet变体的演进历程,分析关键的改进方向,并展望未来的研究热点。
在最初阶段(2015-2016年),ResNet的核心模块和结构设计已经确立。主要变体是不断加深网络,形成ResNet-50、ResNet-101等系列模型。同时也开始尝试改变网络宽度(Wide ResNet)和模块内部连接(ResNet-preact)来提升效果。
进入2017-2018年,研究者开始更大范围地丰富ResNet的组件和结构设计。引入注意力机制(SE-ResNet)和dense连接(DenseNet)来增强模块表达能力,设计可递归的模块(FractalNet)或可压缩模块(CondenseNet)来优化参数和计算量,并提出并行多路径(DualPathNet)或混合不同网络特点(DPN)的创新结构。
在2019-2020年,参数量和模型结构的规范化设计成为重点,出现了RegNet等系列模型。同时移动端和轻量化方向取得进展,如MobileNet-V2。模块设计上开始考虑多尺度特征表达(Res2Net)和保持高分辨率表示(HRNet)。自注意力机制也被引入ResNet中。
预计Transformer框架与CNN的融合仍将是热点,2022年出现了更多像ConvNeXt和CaiT这样的创新设计。同时自注意力和跨层交互的改进、模块设计的优化以及移动端与轻量化等方向都将持续发展。2023年除了上述趋势之外,还看到引入协同学习、新型正则化手段以及频域方法的ResNet等创新模型。
总体而言,残差网络提供了一个非常活跃的研究平台,未来几年模块设计、网络连接和组件功能等方面都将不断涌现新思路,整体趋势是模块更加规范化与有效Parameter化,网络结构与组件功能不断丰富,从而在效率、效果和适用性上取得更好的平衡。ResNet及其变体仍将是计算机视觉领域的Backbone模型的重要组成部分。