深度学习激活函数及选择原则

**一、激活函数:**一种非线性变换函数。
1、ReLU函数:ReLU(x)=max(x,0)
ReLU函数只保留正数元素,并将负数元素清零。
函数图像如下:
在这里插入图片描述
函数求导图像如下:
在这里插入图片描述
2、Sigmoid函数:sigmoid(x)=1(1+exp(−x))
将元素的值变换到0和1之间。
函数图像如下:
在这里插入图片描述
函数求导sigmoid′(x)=sigmoid(x)(1−sigmoid(x)),图像如下:
在这里插入图片描述
3、tanh函数(双曲正切):tanh(x)=(1−exp(−2x))/(1+exp(−2x))
将元素的值变换到-1和1之间,形状和sigmoid函数的形状很像,但tanh函数在坐标系的原点上对称。
函数图像如下:
在这里插入图片描述
函数求导tanh′(x)=1−tanh2(x),图像如下:
在这里插入图片描述
二、激活函数的选择
1、ReLu函数是一个通用的激活函数,目前在大多数情况下使用。但是,ReLU函数只能在隐藏层中使用。
2、用于分类器时,sigmoid函数及其组合通常效果更好。由于梯度消失问题,有时要避免使用sigmoid和tanh函数。
3、在神经网络层数较多的时候,最好使用ReLu函数,ReLu函数比较简单计算量少,而sigmoid和tanh函数计算量大很多。
4、在这里插入代码片在选择激活函数的时候可以先选用ReLu函数如果效果不理想可以尝试其他激活函数。

  • 5
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值