深度学习理论——基本结构(池化层&激活函数&全连接层)

本文介绍了深度学习中池化层的作用,包括特征不变性和降维,并讨论了Sigmoid和RELU两种激活函数的优缺点。Sigmoid存在梯度饱和问题,而RELU则能有效避免。最后提到了全连接层在模型中的应用,解释了为何网络可能包含多个全连接层。
摘要由CSDN通过智能技术生成

大家好,继续深度学习理论学习。记录一下自己觉得有用的关于深度学习基本结构的相关知识。

1.池化层

池化层不包含需要学习的参数,使用时仅需指定池化类型,池化核大小和池化步长。池化类型一般都取平均池化(average-pooling)或最大值池化(max-pooling),即取池化矩阵覆盖的输入中的平均值或最大值。

池化层存在的意义一般有以下三点:

(1)特征不变性  池化使模型更关注是否存在某些特征而不是特征的位置,是特征学习包含一定程度上的自由性。

(2)特征降维  池化结果中的一个元素对应原输入数据中的一个子区域,减小了计算量。

(3)在一定程度上可以防止过拟合。

2.激活函数

激活函数的作用就是增强整个网络的表达能力(非线性性),其中Sigmoid和RELU最为常见。

(1)Sigmoid

可以看到,Sigmoid存在梯度饱和问题,当输入小于-5或大于5时,Sigmoid函数值几乎不再变化,使得梯度为0,结合上一篇写到的随机梯度下降法,这使得误差很难传递到前层,网络无法训练。

Sigmoid优点:a.能把值映射在[0,1]之间  b.求导方便

缺点:a.容易造成梯度消失  b.函数输出不是零为中心的  c.指数函数的计算比较消耗资源

(2)REL

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值