一、Resnet论文解读
以resnet34为例介绍
*图一 :res34层整体结构 图二: resnet的尺寸通道数表
1、残差结构
主通道上输入x进入一个卷积层后做BN,做relu,在进入一个卷积层后,与侧通道(x)相加之后,一起做BN, 做relu。
这个相加不是拼接,必须要求x的维度,与主通道上做完第二次卷积后的维度相同。是矩阵里每一个参数的相加(可以理解为两个形状相同的矩阵相加)。
要保证侧通道上x(identity)的维度,在主侧相加点的维数相同,有两种办法:1)用0来填充不过的维数,2)用1*1的卷积核扩充维度。-----论文里说用2方法好
原文如下
When the dimensions increase (dotted line shortcuts
in Fig. 3), we consider two options: (A) The shortcut still
performs identity mapping, with extra zero entries padded
for increasing dimensions. This option introduces no extra
parameter; (B) The projection shortcut in Eqn.(2) is used to
match dimensions (done by 1×1 convolutions). For both
options, when the shortcuts go across feature maps of two
sizes, they are performed with a stride of 2.
2、整体结构
resnet34首先经过 7 * 7 * 64的卷积层,经过maxpool层,进入残差块,一共进入了4种类型的残差块,最后通过averagpool和 全连接层。
3、代码
*残差块代码:
- 在搭建残差块代码时,要考虑到论文中几乎都是在重复使用残差块,但由于outputsize的改变和通道深度的改变,我们无法使用一个固定参数的残差块,所以我们要想想,是不是可以设置一些变量去控制,使用同一个残差块,以满足不同的需求。
我们先思考用到的所有的参数,看看哪些是变化的哪些是不变化的-----------残差块里设计到的所有参数:
1)卷积核的尺寸------ 3*3没变,深度变了--------outchannels inchannels变;
2)一张图片的输入尺寸------ c h w变了 影响了 s 和 p------ s和p 变;
3)由于我们还要考虑identity(侧通道,图一中虚侧线)的维数变化,我们还可以添加一个变量,用它来控制我们的identity的操作;
所以!我们可以设置,inchannels,outchannels ,stride,padding,以及downsample 为变量。
class BasicBlock(nn.Module):
def __init__(self, in_channel, out_channel, stride=1, padding=1, downsample=None): # 用downsample来控制是否要改输入的维度,也就是图片里的dot-shortcut
super(BasicBlock, self).__init__()
self.conv1 = nn.