relu函数为分段线性函数,为什么会增加非线性元素

relu函数为分段线性函数,为什么会增加非线性元素

我们知道激活函数的作用就是为了为神经网络增加非线性因素,使其可以拟合任意的函数。那么relu在大于的时候就是线性函数,如果我们的输出值一直是在大于0的状态下,怎么可以拟合非线性函数呢?

relu是非线性激活函数
题主的疑问在于,为什么relu这种“看似线性”(分段线性)的激活函数所形成的网络,居然能够增加非线性的表达能力。
1、首先什么是线性的网络,如果把线性网络看成一个大的矩阵M。那么输入样本A和B,则会经过同样的线性变换MA,MB(这里A和B经历的线性变换矩阵M是一样的)。
2、的确对于单一的样本A,经过由relu激活函数所构成神经网络,其过程确实可以等价是经过了一个线性变换M1,但是对于样本B,在经过同样的网络时,由于每个神经元是否激活(0或者Wx+b)与样本A经过时情形不同了(不同样本),因此B所经历的线性变换M2并不等于M1。因此,relu构成的神经网络虽然对每个样本都是线性变换,但是不同样本之间经历的线性变换M并不一样,所以整个样本空间在经过relu构成的网络时其实是经历了非线性变换的。
3、还有一种解释就是,不同样本的同一个feature,在通过relu构成的神经网络时,流经的路径不一样(relu激活值为0,则堵塞;激活值为本身,则通过),因此最终的输出空间其实是输入空间的非线性变换得来的。
4、更极端的,不管是tanh还是sigmoid,你都可以把它们近似看成是分段线性的函数(很多段),但依然能够有非线性表达能力;relu虽然只有两段,但同样也是非线性激活函数,道理与之是一样的。
5、relu的优势在于运算简单,网络学习速度快

解释的比较好

转载于:https://www.cnblogs.com/lzida9223/p/10972783.html

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
回答: 关于ReLU非线性的原因,可以从两个方面进行解释。 首先,根据引用中的观点,ReLU非线性性质取决于输入。如果输入中存在负值,那么ReLU函数表现出非线性的特性。这是因为ReLU函数在输入为负时输出为零,而输入为正时输出为输入本身。这种非线性逻辑可以增强神经网络的表达能力,并且可以更好地处理具有复杂模式和非线性关系的数据。 其次,根据引用的解释,虽然ReLU函数在每个分段上都是线性的,但当这些分段组合在一起时,整体函数就不再是线性的。线性函数可以用一条直线将平面空间划分,而ReLU函数则可以通过多个分段函数来划分空间。这种组合效果使得ReLU函数能够对不同区域施加不同的变换,从而表现出非线性的特性。这种非线性性质对于神经网络的学习和表示能力非常重要。 因此,ReLU函数之所以被广泛应用于深层神经网络中,是因为它能够缓解梯度消失问题,并且拥有非线性的特性,这有助于增强网络的表达能力和学习复杂模式。123 #### 引用[.reference_title] - *1* *2* [为什么说ReLU非线性激活函数](https://blog.csdn.net/Childhood_Sweetheart/article/details/117417658)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}} ] [.reference_item] - *3* [你真的看懂Relu了吗?大家都说是非线性,为什么我怎么看都是线性啊?](https://blog.csdn.net/baicaiBC3/article/details/122363249)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值