ResNet残差网络 pytorch手动实现 训练Cifar10

本文介绍了ResNet残差网络的原理,旨在解决深度学习中模型性能随层数增加而退化的问题。通过恒等映射和跳跃连接,ResNet将学习目标转化为残差,防止梯度消失。34层ResNet结构包括不同通道的实线和虚线跳跃连接,以及瓶颈结构以减少参数。文章提供了基于Cifar10数据集的18层ResNet实现,使用Adam优化器,测试集准确率为73%。
摘要由CSDN通过智能技术生成

残差原理

Alt

网络退化(degradation):因为梯度弥散等原因,在不断加神经网络的深度时,模型准确率会先上升然后达到饱和,再持续增加深度时则会导致准确率下降。

残差网络ResNet的出现就是为了解决网络深度变深以后的性能退化问题。

ResNet的灵感来源:假设现有一个比较浅的网络(Shallow Net)已达到了饱和的准确率,这时在它后面再加上几个恒等映射层(Identity mapping 即y=x 输出等于输入),这样就增加了网络的深度,并且起码误差不会增加,即更深的网络不应该带来训练集上误差的上升。

某段神经网络的输入是x 期望输出是H(x) ,即H(x)是期望的复杂潜在映射,学习这样的模型,训练难度会比较大。
回想前面的假设,如果已经学习到较饱和的准确率(或者当发现下层的误差变大时),那么接下来的学习目标就转变为恒等映射的学习,也就是使输入x近似于输出H(x) ,以保持在后面的层次中不会造成精度下降。

通过“跳跃连接”(skip)的方式 直接把输入x传到输出作为初始结果,输出结果为 H(x)=F(x)+x。当 F(x)=0 时,那么 H(x)=x,也就是上面所提到的

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值