论文名字
Large Kernel Distillation Network for Efficient Single Image Super-Resolution
这个论文在BSRN上做了修改,主要移除了ESA和CCA模块,添加了LKA模块
虽然 BSRN 在模型参数和计算方面取得了长足的进步,但过多的残差连接和复杂的注意力模块(例如对比注意力 (CCA) 和增强空间注意力 (ESA))导致模型计算效率低下。正如在 RLFN 中分析的那样,复杂的 ESA 模块是冗余的,很难定量分析哪些部分真正有用。
LKA的组成
ConvDW−D(·) 和 ConvDW (·) 分别表示扩张深度卷积和深度卷积,⊗ 表示元素乘积运算, 通过将大型 17×17 卷积分解为 1×1 点卷积、深度 5×5 卷积和核大小为 5、扩张为 3 的深度扩张卷积
此外在核心模块上做出了改进
左图是BSRN的核心模块
LKDN移除了直连的残差连接,而是在内部添加了两条残差连接
具体来说,在 1×1 点状卷积和 3×3 深度卷积上引入了可重新参数化的跳过连接。此外,在 3×3 深度卷积上并行执行 1×1 深度卷积。