ResNet 初了解


https://blog.csdn.net/lanran2/article/details/79057994
常用模型框架:ResNet50 ResNet101

1、意义

随着网络加深,训练集准确率下降,引入深度残差网络
可以确定这不是过拟合造成的
残差是什么?
ResNet提出两种mapping,一种就是旁边弯的哪一个曲线,另一种就是直的跑卷积的那一段
弯的曲线就是identity mapping,自身输出,直的是residual mapping,是y-x,F(x)
如果网络已经到达最优,继续加深网络,残差项就会push为0,只有自身输出,理论上网络一直最优

2、结构

Shortcut connection
先过基本的卷积,再加上原来的自己
shortcut也有两种方式,实线和虚线
实线就是channel个数一致,虚线的话不一致,可以通过卷积操作调整原来x的维度

3、ResNet50 ResNet101

5种不同深度的ResNet,其中有50和101
所有网络有5部分,conv1,conv2_x,conv3_x,等等
深度层数仅仅指卷积或者全连接的层数,激活层和pooling层没有计算在内


https://blog.csdn.net/u013181595/article/details/80990930

1、概括
参数量比VGGNet低,正确率高
主要思想:增加直连通道,允许保留之前网络层一定比例的线性输出,直接传到后面的层里
不用学习整个的输出,学习上一个网络输出的残差

2、创新点
整个网络只学习输入输出差别的那一部分,简化学习目标和难度


感悟:

有点那个意思了
就是直连输出到后面
网络结构就是这样
但是后续训练的时候,做bp梯度的时候
这个直连传递的基本不会有改变
改变的就是F(x)
就是不断训练它变小
使得F(x)+x不断接近x
所以训练的是F(x)
就是残差

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值