[深度学习] Relu层作用

为什么引入非线性激励函数

如果不用激励函数,在这种情况下你每一层输出都是上层输入的线性函数,很容易验证,无论你有多少层神经网络,输出的都是输入的线性组合。

激活函数是用来加入非线性因素的,因为线性模型的表达能力不够。
以下,同种颜色为同类数据。某些数据是线性可分的,意思是,可以用一条直线将数据分开。比如下图:
这里写图片描述

这时候你需要通过一定的机器学习的方法,比如感知机算法(perceptron learning algorithm) 找到一个合适的线性方程。

但是有些数据不是线性可分的。比如如下数据:
这里写图片描述
第二组数据你就没有办法画出一条直线来将数据区分开。

这时候有两个办法,第一个办法,是做线性变换(linear transformation),比如讲x,y变成 x2,y2 x 2 , y 2 ,这样可以画出圆形。如图所示:
这里写图片描述

如果将坐标轴从x,y变为以 x2,y2 x 2 , y 2 为标准,你会发现数据经过变换后是线性可分的了。大致示意图如下:
这里写图片描述

另外一种方法是引入非线性函数。我们来看异或问题(xor problem)。以下是xor真值表
这里写图片描述
这个真值表不是线性可分的,所以不能使用线性模型,如图所示
这里写图片描述

我们可以设计一种神经网络,通过激活函数来使得这组数据线性可分。
激活函数我们选择阀值函数(threshold function),也就是大于某个值输出1(被激活了),小于等于则输出0(没有激活)。这个函数是非线性函数。

神经网络示意图如下:
这里写图片描述

其中直线上的数字为权重。圆圈中的数字为阀值。第二层,如果输入大于1.5则输出1,否则0;第三层,如果输入大于0.5,则输出1,否则0.
我们来一步步算。

第一层到第二层(阀值1.5)
这里写图片描述
第二层到第三层(阀值0.5)
这里写图片描述
可以看到第三层输出就是我们所要的xor的答案。
经过变换后的数据是线性可分的(n维,比如本例中可以用平面),如图所示:
这里写图片描述
总而言之,激活函数可以引入非线性因素,解决线性模型所不能解决的问题。

  1. 为什么引入Relu呢
    第一,采用sigmoid函数,算激活函数时(指数运算),计算量大。而使用Relu,整个计算节省了很多。
    第二,对于深层网络,sigmoid函数反向传播时,很容易出现梯度消失的情况,(sigmoid接近饱和区的时候,变化太缓慢,导数趋于0)从而无法完成深层网络的训练。
    第三,Relu会使一部分神经元的输出为0,这样就造成了网络的稀疏性,并且减少了参数之间互相依存的关系,缓解了过拟合的发生。

参考

https://www.zhihu.com/question/22334626

  • 45
    点赞
  • 153
    收藏
    觉得还不错? 一键收藏
  • 5
    评论
深度学习中,不同的具有不同的作用和功能。以下是一些常见的深度学习及其作用: 1. 输入(Input Layer):接收输入数据并将其传递给下一。 2. 卷积(Convolutional Layer):用于提取图像和视频等数据中的特征。通过使用卷积操作,可以有效地捕捉局部相关性。 3. 池化(Pooling Layer):用于减小特征图的尺寸,并保留主要的特征。常见的池化操作有最大池化和平均池化。 4. 批归一化(Batch Normalization Layer):用于提高模型的稳定性和加速训练过程。通过对每个批次的输入进行归一化,可以使得网络更容易训练。 5. 激活函数(Activation Layer):对输入数据进行非线性变换,引入非线性因素。常见的激活函数有ReLU、Sigmoid和Tanh等。 6. 全连接(Fully Connected Layer):将前一的所有节点与当前的所有节点相连接,进行全连接操作。主要用于将卷积或池化提取的特征进行分类或回归。 7. 循环神经网络(Recurrent Neural Network Layer):用于处理序列数据,具有记忆功能。通过引入时间维度,可以对序列数据进行建模。 8. 长短期记忆(Long Short-Term Memory Layer):一种特殊的循环神经网络,用于解决传统循环神经网络中的长期依赖问题。 9. 损失函数(Loss Function Layer):用于衡量模型预测输出与实际标签之间的差异,并作为反向传播的信号。 以上只是深度学习中一些常见的,实际应用中还可能会有其他特定任务的。不同的结合在一起构成了深度学习模型,通过训练模型,可以使模型自动学习输入数据中的特征并进行相应的预测或分类。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值