常见的激活函数

注:此文章为吴恩达教授的deeplearning.ai课程笔记,文中图片均来自课程ppt。

为什么要使用非线性激活函数:因为如果不使用非线性的激活函数,那神经网络将变为一个线性的函数,隐含层已经没有了存在的必要。

sigmoid

6769895-4b61a8fcc92e558b.png

sigmoid函数

 

函数的导数为:a(1-a)

tanh(hyper tangent function)

6769895-20f7b4c70a4cdd50.png

tanh函数

 

函数的导数为:1-a^2

Relu(rectified linear function)

6769895-75ab1332ad0bde86.png

Relu函数

 

 

导数为:

6769895-fc789399a39afd11.png

image.png

Leaky Relu(带泄露的Relu)

6769895-a0c0552066c12197.png

Leaky Relu

使用注意事项:

如果输出0或1,比方说是在做二分类,则可以使用sigmoid作为输出层的激活函数,但一般情况下tanh的表现都比sigmoid好,但是这两个函数都存在一个问题,就是当输入比较大或者比较小的时候,函数导数的梯度会变得很小,不利于梯度下降。所以常用的是Relu函数,但是Relu函数也有一个缺点:当输入为负的时候,函数的导数为0,也就是梯度为0,所以有了后面的带泄露的Relu

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值