神经网络之一 激活函数

激活函数运行时激活神经网络中的某一部分神经元,将激活信息向后转入下一层的神经网络。神经网络之所以能够解决非线性问题,本质上就是激活函数加入了非线性因素,弥补了线性模型的表达力,把激活的神经元的特征通过函数保留并映射到下一层。因为神经网络的数学基础是处处可微,所以选取的激活函数要保证数据的输入与输出也是可微的。激活函数不会更改输入数据的维度。

tensorflow常见的激活函数:

1,sigmoid,优点在于输出映射在(0,1)之间,单调连续,非常适合用作输出层,并且求导比较容易。但是也有缺点,因为软饱和性,一旦输入落入饱和区,变化的趋势很容易接近0,很容易产生梯度消失。其输出不是以0为中心。

2,tanh函数,tanh函数的输出映射在(-1,1)之间。也具有软饱和性,但是是以0为中心的。同时收敛速度比sigmoid快。但是缺点和sigmoid相同。容易出现梯度消失。

3,relu函数,是目前最受欢迎的激活函数。softplus可以看作ReLU的平滑版本。

 

其他不常用的激活函数就不介绍了。

 

总结:

当输入数据特征相差明显时,用tanh的效果更好,且在循环过程会不断扩大特征效果并显示出来。当特征不明显的时候,sigmoid效果比较好。同时,用sigmoid和tanh作为激活函数时,需要对输入进行规范化,否则激活后的值都进入平坦区,会丧失原有数据的特征

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值