ResNet-50特殊层详解

最近在做图像风格迁移,尝试了用预训练的ResNet-50来代替VGG-19,结果自己学艺不精失败了,好在对ResNet-50还是有比较多的了解的,其他博文一般都是一个大框架,我自己做了一些特殊层详解,分享给大家,做点好事,保佑我毕设早点通过。
在这里插入图片描述
在这里插入图片描述
Conv2-2的输入为(56,56,256),stride=1
在这里插入图片描述

在这里插入图片描述
则conv4_2的输如为(14,14,1024),stride=1,后边相同
在这里插入图片描述
再附加一个有ResNet所有层结构的网址吧,
https://blog.csdn.net/nima1994/article/details/82686132

  • 1
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
ResNet-50是一种在深度学习领域非常著名和成功的残差网络架构,它是由Kaiming He等人在2016年提出的。该模型的主要创新在于引入了“残差块”(residual block),允许训练更深的网络结构,并有效地解决梯度消失的问题。 ResNet-50 的“50”实际上并不是指网络中有确切的50个完全独立的全连接(即通常所说的神经网络的深度)。相反,“50”指的是整个网络由大约50个残差块组成,每个块内部包含若干个卷积、批量归一化以及激活函数。因此,我们可以说 ResNet-50 网络有接近50个块,每个块又包含几个,这使得总数达到数百,而不会遇到传统的深网络难以训练的问题。 以下是ResNet-50的大致架构: 1. **数据预处理**:输入图像通常需要经过标准化和调整大小的过程,使其适合于网络的输入尺寸(例如,对于ImageNet数据集,通常使用224x224像素的标准尺寸)。 2. **初始下采样**:网络开始会通过一系列的卷积(比如两个3x3卷积,之后接一个步长为2的平均池化)对输入图像进行压缩和特征提取,同时减少其宽度和高度,保持深度不变。 3. **残差模块堆叠**:从第3开始,网络进入一系列的残差模块堆叠,总共约有20个这样的堆叠。每个堆叠由多个相同的残差模块组成。每一个残差模块包含了四个核心组件: - **第一组卷积**:一般采用1x1卷积,用于改变通道数(即过滤器的数量),使得输入可以与输出对齐(即维度相匹配)。 - **第二组卷积**:一组标准的卷积操作,可以是3x3或其他大小的滤波器。这部分是残差模块的核心计算部分,生成新的特征图。 - **第三组卷积**:通常是一个1x1的卷积,再次改变通道数,用于将最终输出与原始输入对齐。 - **跳跃连接**:通过短路径将当前模块的输出与前一的输出相连,这个连接称为跳过连接或残差链接,允许信息直接从输入传递到输出。 4. **最终下采样**:在最后一个残差模块之后,添加了一个额外的3x3的最大池化,进一步降低空间分辨率并继续下采样过程。 5. **分类头**:经过上述的深处理后,特征图会被扁平化成一个向量,然后依次通过全连接(FC)、ReLU激活函数等步骤来进行最终的分类预测。 注意:尽管这里描述的架构细节可能会有所变化,但是ResNet-50的基本设计原则——利用残差块和跳过连接来构建更深的网络,仍然是这一系列模型的核心思想。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值