激活函数

多层感知机在单层神经网络的基础上引入了一到多个隐藏层(hidden layer)。多层感知机的全连接层和隐藏层都是全连接层。

激活函数:为什么要引入激活函数?

答:多层感知机的全连接层只是对数据做仿射变换(affine transformation),即线性变换,而多个仿射变换的叠加依然是一个仿射变换,也就是说多层神经网络也就相当于一层。解决这个问题的办法就是在全连接层之间引入非线性变换,即激活函数。

常见的激活函数:

1. ReLU(rectified linear unit)

                                                           ReLU(x) = max(x,0)

ReLU函数只保留正数元素,并将负数元素清零。

2.sigmoid函数

                                                            sigmoid(x)=\frac{1}{1+exp(-x)}

将元素映射到 (0, 1) ,在输入接近零时,sigmoid函数接近线性变换。早期的神经网络使用广泛,目前逐渐被更简单的ReLU函数替代。

3. tanh函数(双曲正切)

                                                           tanh(x) = \frac{1-exp(-2x)}{1+exp(-2x)}

将元素映射到 (-1, 1),形状和sigmoid函数很像,但是其在坐标系的原点上对称。

 

 

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值