如何选取激活函数

不是所有信息都是有用的,一些只是噪音。激活函数可以帮助神经网络做这种隔离。它激活有用的信息,并抑制无关的数据点。

激活函数有哪些:

1.Sigmoid函数


优点:非线性;输出范围有限,适合作为输出层。    缺点:在两边太平滑,学习率太低;值总是正的;输出不是以0为中心。

适用于:当我们尝试将值分类到特定的类时,使用Sigmoid函数非常理想。

2.tanh函数


解决了sigmoid的大多数缺点,仍然有两边学习率太低的缺点

3.ReLU函数


优点:不会同时激活所有的神经元,这意味着,在一段时间内,只有少量的神经元被激活,神经网络的这种稀疏性使其变得高效且易于计算。

缺点:x<0时,梯度是零。随着训练的进行,可能会出现神经元死亡,权重无法更新的情况。也就是说,ReLU神经元在训练中不可逆地死亡了。

4.Leaky ReLU函数


解决了RELU死神经元的问题

5.Softmax函数

优点:可以处理多分类问题。softmax函数最好在分类器的输出层使用。


更多激活函数,参见参考文献4......

如何选择正确的激活函数?

根据问题的性质,我们可以为神经网络更快更方便地收敛作出更好的选择。

用于分类器时,Sigmoid函数及其组合通常效果更好。

由于梯度消失问题,有时要避免使用sigmoid和tanh函数。

ReLU函数是一个通用的激活函数,目前在大多数情况下使用。

如果神经网络中出现死神经元,那么PReLU函数就是最好的选择。

请记住,ReLU函数只能在隐藏层中使用。

一点经验:你可以从ReLU函数开始,如果ReLU函数没有提供最优结果,再尝试其他激活函数。



参考文献:

1.baijiahao.baidu.com/s?id=1582399059360085084&wfr=spider&for=pc

2.https://blog.csdn.net/huangfei711/article/details/79613024

3.https://www.cnblogs.com/shixiangwan/p/7567017.html

  • 11
    点赞
  • 67
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
选取损失函数和激活函数是深度学习模型设计中的重要步骤。下面我将分别解释如何选取损失函数和激活函数选取损函数: 1. 根据任务类型选择损失函数:根据你的任务类型,例如分类、回归或生成等,选择适合的损失函数。例如,对于分类任务,常用的损失函数有交叉熵损失函数(Cross Entropy Loss),对于回归任务,常用的损失函数有均方误差损失函数(Mean Squared Error Loss)等。 2. 考虑输出的特点:根据输出的特点,选择合适的损失函数。例如,如果输出是概率分布,可以选择交叉熵损失函数;如果输出是实数值,可以选择均方误差损失函数。 3. 考虑数据分布:根据数据分布的特点,选择合适的损失函数。例如,如果数据存在明显的类别不平衡问题,可以选择加权损失函数来平衡各个类别的重要性。 选取激活函数: 1. 考虑非线性能力:选择具有非线性能力的激活函数,以便模型可以学习非线性关系。常用的激活函数有ReLU、Sigmoid、Tanh等。 2. 避免梯度消失和梯度爆炸:选择激活函数时要注意避免梯度消失和梯度爆炸问题。例如,ReLU函数可以有效地避免梯度消失问题。 3. 适应输出范围:根据输出范围的要求选择激活函数。例如,如果需要将输出限制在特定范围内,可以选择Sigmoid或Tanh函数。 4. 网络结构的要求:根据网络结构的要求选择激活函数。例如,如果需要稀疏性,可以选择稀疏激活函数(如ReLU)。 需要注意的是,损失函数和激活函数选择也可以通过实验和调参来确定,根据具体问题的特点进行适当调整。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值