tensorflow学习笔记——常用的激活函数

本文详细介绍了TensorFlow中常用的激活函数,包括Sigmoid的0-1映射及梯度消失问题,Tanh的双曲正弦特性,ReLU在缓解梯度消失和加速收敛的优势,Softmax用于多分类的输出概率计算,以及Softplus作为ReLU平滑版本的特性。
摘要由CSDN通过智能技术生成

1.sigmoid

公式:

S(x)=\frac{1}{1+e^{-x}}

图像:

从图中可以看到,sigmoid激活函数会将所有输入都转到0-1范围内。如此之外,它的倒数有一个常用到的性质:

S(x)^{'}=\frac{e^{-x}}{(1+e^{-x})^{2}}=S(x)(1-S(x))

即它的倒数可由自身表示。

  • 优点:它输出映射在0-1内,单调连续,可以用来作分类,并且求导比较容易;
  • 缺点:具有软饱和性,一旦输入过大或过小,一阶导数就变得接近于0,很容易产生梯度消失的现象。

tesorflow使用:tf.sigmoid(x)

2.tanh

公式:

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值