吴恩达机器学习笔记十二 Sigmoid激活函数的替代方案 激活函数的选择 为什么要使用激活函数

本文探讨了在需求预测中,如何处理awareness的非二元输入,以及不同激活函数(如ReLU、线性、Sigmoid和LeakyReLU)在输出层和隐藏层的应用。强调了激活函数在处理非线性问题和提高学习效率中的重要性。
摘要由CSDN通过智能技术生成

在需求预测案例中,awareness这个输入可能不是二元(binary)的,或许是一点(a little bit)、有些(somewhat)或完全(extremely),此时相比将awareness规定为0、1,不如考虑概率,认为它是一个0-1之间的数。

激活函数可以采用ReLU函数(rectified linear unit)

三个常用的激活函数

使用线性激活函数也可以看作是没有激活函数。

激活函数的选择

输出层(output layer)

输出层激活函数的选择和标签y的真实准确值有关。当y的值是0或1,即分类问题时,在输出层采用Sigmoid函数;解决回归问题,可能采用不同的激活函数。如预测股票的趋势,可能出现正数也可能出现负数,因此采用线性激活函数(linear activation function);如果y是非负的,那么可以采用ReLU函数。

隐藏层(hidden layer)

最常见的是ReLU函数。最初常用的是sigmoid函数,使ReLU函数有两个原因:一是ReLU函数更简单,更快;二是ReLU函数的左半边是平坦的(flat),只有一个部分,而Sigmoid函数在左边和右边各有一部分是平坦的。当激活函数平坦时,学习速度就会下降,因此采用ReLU作为激活函数可以让神经网络学得更快。

总结

此外,还有一些其他的激活函数,如swish、tan h、LeakyReLU等。

为什么要使用激活函数

如果神经网络的每个层都采用线性激活函数,最后的结果和线性回归是完全相同的,a[4]可以表示成wa[3]+b,相当于一个单层神经网络,无法处理复杂的非线性问题。如果输出层用sigmoid激活函数,隐藏层用线性激活函数,最后的结果和逻辑回归相同。

  • 9
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值