深度学习中的激活函数

激活函数:

    激活函数是使线性函数变成非线性,使神经网络表达能力更强,几乎可以逼近任意函数。值域是-1到1或者0到1,定义域负无穷到正无穷。在-1和1区间梯度很大,而在其他地方很小。

激活函数一:sigmoid
sigonid表达式:
                                                        在这里插入图片描述
sigmoid函数图像:
在这里插入图片描述
      sigmoid函数值域在(0,1)所以非常适合做概率问题;

激活函数二:tanh
tanh函数表达式:
                                                        在这里插入图片描述
图像为:
在这里插入图片描述
      tanh值域在(-1,1);在区间(-1,1)上的最大梯度是1,比sigmoid梯度0.25大,因此更适合做深度学习的激活函数。
激活函数三:ReLU
ReLU函数表达式:
                                                        在这里插入图片描述
ReLU图像:
                                            在这里插入图片描述
       ReLU函数在大于0时有梯度且恒定,小于0后梯度恒等于0。收敛速度远快于sigmoid和tanh,计算速度非常快,只需要判断输入是否大于0。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值