神经网络中的激活函数是干是什么用的?

本文介绍了神经网络中的激活函数,包括Sigmoid、Tanh、ReLU、LReLU、PReLU、RReLU和ELU等常见函数。这些非线性函数为神经网络增加了复杂性,解决了线性分类问题。Sigmoid和Tanh存在梯度消失问题,而ReLU及其变体能加速收敛,但可能引发神经元死亡。ELU函数在缓解梯度消失和提高收敛速度方面表现良好。
摘要由CSDN通过智能技术生成

我是小玉,一个平平无奇的数据小天才!

最近在回顾神经网络这里知识,发现自己还是有很多知识点掌握不够清楚明了,既然开始搞就要搞得明明白白,会了神经网络等于掌握了大半个机器学习。

跟大家分享一下我在看这里时候遇到的一些常见问题,神经网络不同于传统的机器学习方法,它由于更多的性质在机器学习领域得到了大量应用。但是想要真的弄清楚神经网络还需要下下功夫。

激活函数:

我们在学习神经网络的时候必不可免的会听到一个词叫做激活函数,这个东西就是对于神经网络来说,起了很大的作用,为神经网络添加了更多的非线性因素,举个例子:

上图是这是一个简单的线性分类问题,正常情况下我们只需要一条直线就可以很好地分类。

但是当我们碰到下图问题时,无法通过一条直线将样本分类出来,需要我们加入非线性因素才可以将样本分类好,而我们的激活函数就是我们要加入的非线性因素:

我们在深入理解激活函数的时候需要先知道什么是硬饱和什么是软饱和!

假设h(x)是一个激活函数。

1.当我们的n趋近于正无穷,激活函数的导数趋近于0,那么我们称之为右饱和。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值