激活函数

一般在图像的目标检测,图像分类中,用到损失函数是交叉熵。

一、sigmoid
用作二分类,在特征相差比较复杂或是相差不是特别大时效果比较好。

二、softmax
用作多分类。“soft”在于连续可微。比起sigmoid,数值稳定。所有值得和为1,那么就会此消彼涨,有相互抑制的效果
s o f t m a x ( z ) i = e x p ( z i ) / Σ j e x p ( z j ) softmax(z)_i=exp(z_i)/\Sigma _jexp(z_j) softmax(z)i=exp(zi)/Σjexp(zj)

三、relu
有单侧抑制的作用,通过ReLU实现稀疏后的模型能够更好地挖掘相关特征,拟合训练数据,加速收敛。
f ( x ) = m a x ( 0 , x ) f(x)=max(0,x) f(x)=max(0,x)
在这里插入图片描述
四、leaky relu
为了解决relu容易让神经元不被激活的问题。保留了一些负轴的值,使得负轴的信息不会全部丢失。
f ( x ) = m a x ( 0 , x ) + l e a k ∗ m i n ( 0 , x ) f(x)=max(0,x)+leak*min(0,x) f(x)=max(0,x)+leakmin(0,x)
leak要设置得小一点。
在这里插入图片描述
五、ELU
f ( x ) = { α ∗ ( e x p x − 1 ) , x < 0 x , x > = 0 f(x)=\lbrace^{x,x>=0}_{α*(exp^x-1),x<0} f(x)={α(expx1),x<0x,x>=0
在这里插入图片描述
六、tanh
sigmoid不是原点对称的。tanh原点对称。计算形式更复杂:
t a n h ( x ) = ( e x p x − e x p − x ) / ( e x p x + e x p − x ) tanh(x)=(exp^x-exp^{-x})/(exp^x+exp^{-x}) tanh(x)=(expxexpx)/(expx+expx)
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值