学习笔记------关于ResNet及其相关细节理解

本文探讨了ResNet残差网络的设计原理,解释了为何即使网络加深,其训练效果仍然优秀。网络深度的重要性在于能提取不同级别的特征。1x1卷积用于维度压缩和增加非线性。ResNet结构包含Basic Block和Bottleneck Block,解决深度学习中的梯度消失问题。此外,还讨论了ReLU激活函数可能导致的神经元死亡现象,并提供了ResNet的PyTorch代码实现简介。
摘要由CSDN通过智能技术生成

先膜拜一下何凯明大神的奇妙想法

 

 

为什么残差网络即使网络再深,训练的表现却不错,错误会减少

preview

假设有一个大型神经网络,其输入为x,输出激活值为a[l],如果你想增加这个神经网络的深度,就再给这个网络额外添加两层,最后输出为a[l+2],可以把这两层看作ResNet块,即具有近路连接的残差块。假设我们在整个网络中使用Relu激活函数,所以激活值都大于等于0。a[l+2]=g(z[l+2]+a[l]),添加项a[l]是刚添加的跳远连接的输入。

如果z[l+2]=0,那么a[l+2]=a[l]。因为我们假定使用Relu激活函数,并且所有激活值都是负的。结果表明,残差块

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值