反卷积(Deconvolution)与棋盘效应(Checkerboard Artifacts)

本文探讨了在深度学习图像生成过程中出现的棋盘效应问题,其源于卷积核大小不能被步长整除。介绍了几种解决方法,包括多层转置卷积、步长为1的卷积和调整卷积核权重分布。提出了两种有效的上采样方法:选择可被stride整除的卷积核大小和使用插值技术。这些方法有助于减少或消除棋盘伪影,提高生成图像的质量。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

棋盘效应

在这里插入图片描述
当我们要用到深度学习来生成图像的时候,是往往是基于一个低分辨率且具有高层语义的特征图。这会使得深度学习来对这种低分辨率特征图进行填充细节。一般来说,为了执行从低分辨率特征图到高分辨率图像之间的转换,我们往往要进行deconvolution。简单来说,deconvolution layer可以允许模型通过每一个点进行绘制高分辨率图像上的一个方块,这种情况的产生与deconvolution的stride、kernel size有关。但不幸的是,当卷积核大小不能被步长整除的时候,会出现棋盘现象。

问题产生:kernel size无法被stride整除

在这里插入图片描述

stride为2,kernel size为3,这导致了重复上采样绘图的部分不均匀(图深色部分)
在这里插入图片描述
并且在二维图片上,情况会更加严重:
在这里插入图片描述

方法尝试1:多层重复转置卷积

现在,神经网络在创建图像时通常使用多层反卷积,从一系列较低分辨率的描述中迭代地构建较大的图像。虽然这些堆叠的去卷积可能会消除伪影,但它们通常会复合,从而在各种尺度上产生伪影。重复的结构使得棋盘更加复杂。
在这里插入图片描述

方法尝试2:stride为1的转置卷积

在反卷积后面,再接一个步长为1的卷积,效果有限
在这里插入图片描述

方法尝试3:调整kernel权重分布

调整卷积核的权重,适当加大重叠部分少的权重,虽然理论有效,但在实际操作中,不仅有困难也会减弱模型的表达力
在这里插入图片描述

更好的上采样

方法一:采取可以被stride整除的kernel size

该方案较好的应对了棋盘效应问题,但是仍不够圆满,因为一旦我们的kernel学习不均匀,仍然会产生棋盘效应,(下图为步长为2,核大小为4所产生的现象)在这里插入图片描述
在上图中,我们的weight并不够平衡,这直接导致了输出的棋盘效应。

即便如此,采用这个思路去设计网络仍然是必要的。

方法二:插值

调整图像大小(使用最近邻插值或双线性插值),然后执行卷积图层。这似乎是一种自然的方法,大致相似的方法在图像超分辨率方面表现良好
在这里插入图片描述

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值