Tensorflow 激活函数

意义

意义在于:熟悉函数梯度饱和点,方便从向量上看出哪里出现了梯度消失。

1. tanh

1.1 图像

在这里插入图片描述

1.2 调用

tf.nn.tanh

1.3 适用

比较常用的激活函数.

2. sigmoid

2.1 图像

在这里插入图片描述
注意:当值>=3时,就已经趋向于饱满了

2.2 调用

tf.nn.sigmoid

2.3 适用

一般用于二分类问题中.

3. relu

3.1 图像

在这里插入图片描述

3.2 调用

tf.nn.relu

3.3 适用

如果向量中存在大量0,或者大量负数,可以考虑舍弃。

4. Leaky ReLU

4.1 图像

在这里插入图片描述

4.2 调用

tf.nn.leaky_relu

其中alpha参数表示负数时的梯度,默认是0.2。

4.3 适用

不可避免得出现大量的0和负数,没有普遍适用是因为:一般情况下,没有relu简单。

参考

图片参考自https://www.jiqizhixin.com/articles/2017-10-10-3

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值