机器学习基础(五)——Residual Network

本文介绍了残差网络(ResNet)的基础知识,包括其动机和解决的梯度消失问题。通过引入残差块,ResNet允许网络加深而不会损失性能。简单模型展示了残差网络与普通网络的区别,其核心在于通过常数项"1"保持梯度的稳定传播。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

残差网络

1、动机

a、基本问题描述

在一定范围内随着神经网络随着层数增加可以更明确的学习出不同的特征从而提升网络性能。但是由于具体实现时其他问题的干扰导致普通的神经网络在增加层数到一定数量后再进行这样的操作反而会导致性能下降,如下图所示(摘自“Deep Residual Learning for Image Recognition”):

这里写图片描述

b、梯度消失与爆炸

导致上述问题其中一个主要的原因就是“梯度消失与爆炸”,那么何为梯度消失于爆炸呢?

梯度消失

当前向传播的梯度绝对值小于1时,经过多层传播那么其指数性接近于零,导致网络靠前的网络层无法获取传播信息。导致此问题的原因主要有两个:一个是不恰当的选择“激活函数”(如sigmoid等,其在大部分区域梯度接近于0,选择类似“relu”函数等可以有效解决此问题),另一个就是网络过深,在梯度绝对值小于1时,经过多层传播那么其指数性接近于零。

梯度爆炸

同样由于网络过深当网络较深层梯度绝对值大于1那么在经过多层传播后可能出现指数增长从而超过计算机的表达范围出现训练问题导致系统性能的下降。此问题不是此处残差网络要解决的问题,解决此问题的是如“BatchNorlization”等等类似的方法。

其实通过以上的描述我们可以了解到只有因为网络过深的“梯度消失”问题还无法有效解决,而“残差网络”的动机就是解决这个问题从而提升网络深度获得更好的性能。

2、残差网络

这里写图片描述

以上为残差网络的简单模型(摘自“Deep Residual Learning for Image Recognition”),这里我们将其看作一个两层网络, X X 是输入,

普通网络

z [ 1 ] = W [ 1 ] X

a[1]<
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值