【激活函数-损失函数】

本文探讨了激活函数如Sigmoid、tanh、ReLU、PReLU、ELU和Maxout的特点与应用场景,以及在选择时要考虑的因素。接着介绍了损失函数,包括Hinge Loss、Multiclass SVM Loss、Softmax Loss、Sigmoid CE Loss、Mean Square Error、Contrastive Loss、Triplet Loss、Large-Margin Softmax Loss和Center Loss,分析了它们的功能和适用场景。
摘要由CSDN通过智能技术生成

激活函数

Sigmoid:
范围:输出范围在0到1之间。
特点:平滑的S形曲线,将输入值映射到0到1之间,适合用于二分类问题的输出层,但容易出现梯度饱和问题。

tanh:
范围:输出范围在-1到1之间。
特点:S形曲线,将输入值映射到-1到1之间,优点是输出均值为0,相比于Sigmoid函数,tanh函数的输出范围更广,但同样存在梯度饱和问题。

ReLU (Rectified Linear Unit):
范围:输出范围在0到正无穷之间。
特点:在输入大于0时,输出等于输入;在输入小于等于0时,输出为0。ReLU函数计算简单,能够加速收敛,但存在神经元死亡问题(输入为负时梯度为0)。

PReLU (Parametric Rectified Linear Unit):
范围:输出范围在0到正无穷之间。
特点:与ReLU类似,但引入了参数,允许激活函数学习一个小的负值斜率,减轻了ReLU的神经元死亡问题。

ELU (Exponential Linear Unit):
范围:输出范围在负无穷到正无穷之间。
特点:在输入大于0时,输出等于输入;在输入小于0时,输出的是指数增长的负值,有助于减少ReLU的神经元死亡问题,但计算复杂度较高。

Maxout:
范围&

  • 20
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值