神经网络与深度学习——浅层神经网络——激活函数,为什么需要非线性激活函数

到目前为止,我们用的激活函数全都是Sigmoid函数(就是中的),接下来介绍其他函数
在这里插入图片描述
在这里插入图片描述

  1. tanh函数:函数值在[-1,1]之间,一般情况下都比Sigmoid函数效果要好,有类似数据中心化的效果

  2. Sigmoid函数几乎不再使用,除非最后输出的时候,毕竟它的函数值是在[0,1]之间的

  3. ReLU函数:上面两个函数在函数值比较大的时候导数变化很小,这会拖累梯度下降法,而ReLU只要z为正,导数就是1,在z=0的时候可以自己声明导数值

  4. 带泄露ReLU:z为负时让它有一个小小的坡度改善ReLU导数为负的情况,在z=0的时候可以自己声明导数值,一般不常用

在二元分类的时候可以输出层用Sigmoid,隐藏层用ReLU,如果不确定隐藏层用什么函数,就用ReLU

在实践过程中通常需要先跑跑试试

——————————————————————————————————————

上节说的四个函数都是对线性出来的结果进行非线性运算,为什么非得需要这么一步计算呢

原因:经过推导可以发现如果只是线性运算,那再多层的网络也都是线性运算,多层网络就没什么用了,多层网络才能解决更复杂的问题

其他用线性运算的特殊情况:回归问题等

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值