常见激活函数

常见激活函数

sigmoid函数

f ( x ) = 1 1 + e − x ; ( 0 < f ( x ) < 1 ) f(x) = \frac{1}{1 + e^{-x}} ; (0<f(x)<1) f(x)=1+ex1;(0<f(x)<1)
sigmoid
sigmoid产生了一个0到1之间的平滑函数。有时需要观察在输入值略有变化时输出值发生的变化,而光滑的sigmoid函数能够做到这点。

tanh函数

f ( x ) = 1 − e − 2 x 1 + e − 2 x f(x) = \frac{1-e^{-2x}}{1+e^{-2x}} f(x)=1+e2x1e2x

tanh
tanh比sigmoid有了一个更平滑的区间范围,其范围更广,但收敛速度更快。

ReLU函数

R e L U ( x ) = m a x ( x , 0 ) ; ReLU(x) = max(x , 0); ReLU(x)=max(x,0);

ReLU

x>0时,x有了一个稳定的求导值,使得网络训练速度更快。

softmax函数

S i = e v i ∑ j n e v j ; S_{i} = \frac{e^{v_{i}}}{\sum_{j}^n e^{v_{j}}}; Si=jnevjevi;

softmax函数常用于分类问题,如果输入属于某一类的概率更大,则这个类的值更逼近于1,其他类的值就更逼近于0.

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值