深度学习入门--计算机视觉--2

本文介绍了池化层在卷积神经网络(ConvNet)中的作用,通过4X4输入和Maxpooling的例子说明了如何降低计算量并增强特征检测。同时,详细阐述了残差网络(ResNet)的快捷路径机制,展示了如何通过跳跃连接保持信号的传递,解决深度网络中的梯度消失问题,促进网络训练的效率和准确性。
摘要由CSDN通过智能技术生成

池化层:

ConvNet通常使用池化层减少展示量,提高计算速度,并使一些特征的检测功能更强大。

老规矩,举个例子:

Pooling layer : Max pooling

在这里插入图片描述
4X4的输入,经过池化层之后,得到了2X2的输出。
这里池化层的参数是:f = 2 , s = 2 .

什么意思呢,就是池化层的大小是2X2 的,步长是2 , 规则是MAX , 那么首先得到的第一个数就是1329中的最大值9,然后移动两步,得到2111中的最大值2,再移动两步得到1356中的最大值6,再移动两步得到2312中的最大值3,因此我们得到的输出就是9263这样一个2X2的矩阵。

残差网络ResNet:

层的主干路径:
a[l] ----- linear ----- ReLU --a[l+1]-- linear ----- ReLU ----- a[l+2]

linear : z[l+1] = W[l+1] a[l] + b[l+1]
ReLU : a[l+1] = g(z[l+1])
linear : z[l+2] = W[l+2] a[l+1] + b[l+2]
ReLU : a[l+2] = g(z[l+2])

上面是正常的流程。

现在将a[l] 直接放到第二个ReLU之前,那么最后的ReLU变成了:
ReLU : a[l+2] = g(z[l+2] + a[l] )

此过程的术语为快捷路径(shortcut)或跳跃连接(skip connection)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值