【论文阅读】【cnn】resnet

resnet解决的是网络的退化问题。在vgg中提出,增加网络深度可以增加模型的表达能力。但是人们发现深度达到一定之后,CNN网络再一味增加层数并不能带来分类性能的提高,甚至会让网络收敛变慢,测试集精度下降。训练集精度下降可以说明这个不是过拟合的原因。因此resnet提出这是网络的“退化问题”。

深度神经网络可以拟合各种表示,按道理说,n+1层的cnn的解空间包含了n层的cnn的解空间,因此n+1层的精度不应该比n差,但是为什么精度反而下降呢?resnet认为网络中的表示方法可能存在问题。

resnet提出了 残差学习 的思想。

若将输入设置为X,将某一有参网络层设为H,那么以X为输入的此层的输出将为H(X)。一般的CNN网络的学习方法是直接学习H的表达,也就是学习X->H(X).

残差学习了输入、输出间的残差,也就是F(X)=H(X)-X,也就是最开始的H(X)=F(X)+X,这么做的原因是假设学习一个残差映射比学习H(X)要更加容易。从极端上来讲,如果某个映射是最优的,那么直接把残差部分置0相比于学习恒等映射更容易。

它有二层,如下表达式,其中σ代表非线性函数ReLU

然后通过一个shortcut,和第2个ReLU,获得输出y

当需要对输入和输出维数进行变化时(如改变通道数目),可以在shortcut时对x做一个线性变换Ws,如下式,然而实验证明x已经足够了,不需要再搞个维度变换,除非需求是某个特定维度的输出,如文章开头的resnet网络结构图中的虚线,是将通道数翻倍。

实验证明,这个残差块往往需要两层以上,单单一层的残差块(y=W1x+x)并不能起到提升作用。

实际中,考虑计算的成本,对残差块做了计算优化,即将两个3x3的卷积层替换为1x1 + 3x3 + 1x1, 如下图。新结构中的中间3x3的卷积层首先在一个降维1x1卷积层下减少了计算,然后在另一个1x1的卷积层下做了还原,既保持了精度又减少了计算量。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
《Deep Koalarization:使用CNN和Inception-ResNet-V2进行图像着色》是一篇研究论文,介绍了一种利用深度学习模型进行图像着色的方法。着色是给黑白图像添加色彩信息的过程,传统方法通常需要人工干预,而这篇论文提出了基于卷积神经网络(CNN)和Inception-ResNet-V2模型的自动图像着色方法。 首先,论文介绍了CNN模型的基本原理。CNN是一种特殊的神经网络结构,具有良好的图像处理能力。它通过多层的卷积和池化操作,自动提取图像中的特征,从而实现对图像的理解和表达。这种模型在计算机视觉领域有着广泛的应用。 其次,论文介绍了Inception-ResNet-V2模型。这是一个深度卷积神经网络模型,由Google团队提出。它结合了Inception和ResNet两种模型的优点,具有更好的图像分类和识别能力。在图像着色任务中,论文采用了这个模型作为基础网络,以提高着色的准确性和效果。 论文还详细介绍了图像着色的方法。首先,将黑白图像输入CNN模型,提取图像的特征表示。然后,再将这些特征输入Inception-ResNet-V2模型,进行图像着色的预测。最后,将预测结果转换为RGB色彩空间,并添加到原始黑白图像上,完成着色过程。 实验结果表明,《Deep Koalarization:使用CNN和Inception-ResNet-V2进行图像着色》方法在图像着色任务上取得了显著的效果。与传统方法相比,它具有更高的自动化程度和更好的着色质量。论文的研究成果对于图像处理和计算机视觉领域具有重要的理论和应用意义。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值