改进:yolov2舍弃了dropout(dropout就是在全连接层使用,防止过拟合。)
v2开始网络中没有了全连接层,取而代之的是在每一次卷积之后都加一个batch normalization,这种操作类似于归一化处理,让每一层卷积处理后的特征图都保持着均值为0,方差为1,使得收敛起来更加容易。
BN的位置在每一层卷积后,relu激活函数前。
改进:yolov2舍弃了dropout(dropout就是在全连接层使用,防止过拟合。)
v2开始网络中没有了全连接层,取而代之的是在每一次卷积之后都加一个batch normalization,这种操作类似于归一化处理,让每一层卷积处理后的特征图都保持着均值为0,方差为1,使得收敛起来更加容易。
BN的位置在每一层卷积后,relu激活函数前。