[深度学习] 激活函数

激活函数又称“非线性映射函数”,是深度卷积神经网络中不可或缺的模块。可以说,深度网络模型强大的表示能力大部分便是由激活函数的非线性单元带来的。这部分共介绍7个激活函数:Sigmoid函数,tanh函数,Relu函数,Leaky Relu函数,参数化Relu,随机化Relu和指数化线性单元(ELU)。

Sigmoid型函数

sigmoid函数也称Logistic函数:

σ ( x ) = 11 + e x p ( − x ) σ ( x ) = 11 + e x p ( − x ) σ ( x ) = 1 1 + e x p ( − x ) σ(x)=11+exp(−x)σ(x)=11+exp(−x) \sigma(x) = \frac{1}{1+exp(-x)} σ(x)=11+exp(x)σ(x)=11+exp(x)σ(x)=1+exp(x)1ELU(x)={x,λ(exp(x)1),x>0x<0
优点:ELU具备Relu的优点,同时ELU也解决了Relu函数自身“死区”问题。不过ELU函数指数操作稍稍加大了工作量,实际计算中ELU中超参数λ一般设置为1。
这里写图片描述

不同激活函数的对比

https://github.com/SiYue0211/neuralnetworks.thought-experiments/tree/master/Activations

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值