激活函数

如果对权重和偏置的微小改动,可以引起输出的微小改动,我们可以基于此来优化网络,但是有时单个感知机上的一个权重或者偏置的修改,会引起感知机输出完全翻转,我们引入激活函数来克服这个困难。

S型神经元激活函数

权重和偏置的微小修改只引起输出的微小变化,定义如下:


一个具有输入x,权重w,偏置 b 的 S型神经元的输出是:


函数的形状如下:



tanh激活函数:


sigmod 函数和 tanh 函数的关系是:


tanh 激活函数是 sigmod 函数的按比例变化版本,tanh 函数输出的值域是(-1,1),类似于 S 型神经元


修正线性神经元 RELU:


图像如下


sigmod 函数在饱和时,减缓了学习,Tanh 神经元也有类似的问题。但是 RELU 不存在这个问题,当带权输入很大时,不会导致其饱和,就不存在学习速率下降的问题,当带权输入是负数的时候,梯度就消失了,RELU 的单侧抑制可以使模型稀疏,并且克服了梯度消失的问题。





评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值