深度学习:神经网络中为什么需要使用激活函数?(超详细)

一、百度百科

        我们先看下百度百科的解释:

       如果不用激活函数,每一层输出都是上层输入的线性函数,无论神经网络有多少层,输出都是输入的线性组合,这种情况就是最原始的感知机(Perceptron)。如果使用的话,激活函数给神经元引入了非线性因素,使得神经网络可以任意逼近任何非线性函数,这样神经网络就可以应用到众多的非线性模型中。

二、举例说明

        为了很好的解释为什么需要使用激活函数,我接下来以一个带有一个隐含层的感知机来进行说明,希望通过这种方式可以让大家通俗的理解。

         给定一个小批量样本,其批量大小为你,输入个数为d。假设多层感知机只有一个隐含层,其中隐藏单元个数为h。记隐藏层的输出(也称为隐藏层变量或隐藏变量)为H,有。因为隐藏层和输出层均为全连接层,可以设隐藏层的权重和偏差为Wh 和 ,输出层的权重和偏差参数分别为

        先来看下一种含单隐含层的多层感知机的设计。其输出 的计算为 。也就是将隐含层的输出直接作为输出层的输入,如果将以上两个公式l联立起来,则可以得到

        由上面的例子可以得出,如果不使用激活函数的话,虽然我们使用了隐藏层,但是实际还是一个单元神经,所以我们需要使用激活函数。

三、各种常见的激活函数

        我们常见的激活函数有sigmoid激活函数、tanh激活函数和ReLu激活函数。对于这三种激活函数的介绍及区别在我之前的博客有进行介绍,可以进去学习。博客:https://blog.csdn.net/Fhujinwu/article/details/107771639

  • 11
    点赞
  • 48
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值