机器学习笔记-有关ReLU非线性的理解

如果单独看一个ReLU激活函数,那它就是线性的,但是这种激活函数在多层的神经网络中却是非线性的。在简单的三层神经网络中,我们一般使用Sigmoid函数或者Tanh函数作为激活函数,这是因为当神经网络的层数较少时,少量的ReLU训练出来的网络拟合能力可能并没有Sigmoid函数好。但是在深度神经网络中,网络层的层数高达数百数千层,在这么多层的情况下再去使用Sigmoid函数作为激活函数就会大大减慢运行速率,并且还可能存在梯度消失的情况,所以在深度神经网络中使用ReLU函数要比Sigmoid函数好。
至于为什么ReLU函数是非线性函数?
ReLU函数的非线性能力是由负值带来的,如果ReLU的自变量全部都是正数,那么ReLU就没有意义了,所以可以片面的理解,输入的负数越多,ReLU的拟合非线性的能力就越大。很显然单个ReLU函数并没有非线性能力,然后很多个ReLU函数连接在一起就存在非线性能力,可以参考ReLU非线性能力
关于ReLU非线性能力更深层的解答,可以参考ReLU作为分段线性激活函数,如何在神经网络中引入非线性?

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值