【深度学习】——神经网络中常用的激活函数:sigmoid、Relu、Tanh函数

激活函数在神经网络中引入非线性,解决线性模型的欠拟合问题。Sigmoid将输入映射到[0,1],但存在梯度消失和计算复杂度高的问题。Tanh类似Sigmoid,但输出在[-1,1],收敛更快,仍有梯度消失问题。Relu是分段线性函数,解决Sigmoid和Tanh的梯度消失,但在负区存在神经元死亡。Leaky Relu是对Relu的改进,避免了神经元死亡。" 79971894,7375002,软件测试过程详解:需求分析至测试报告,"['软件测试', '测试设计', '测试执行']
摘要由CSDN通过智能技术生成

激活函数

  实际中的很多事情并不能简单的用线性关系的组合来描述。在神经网络中,如果没有激活函数,那么就相当于很多线性分类器的组合,当我们要求解的关系中存在非线性关系时,无论多么复杂的网络都会产生欠拟合。激活函数就是给其加入一些非线性因素,使其能够处理复杂关系。

1.Sigmoid函数:把输入值映射到[0,1],其中0表示完全不激活,1表示完全激活
其图像为:


在这里插入图片描述

sigmoid函数的导数为:
在这里插入图片描述

缺点:①sigmoid函数的导数取值范围在[0,0.25]之间,在深度网络中,需要用链式法则多次求导,导数为多个在[0,0.25]之间的数相乘,结果趋于0,导致梯度消失,使参数无法进行更新

   ②我们希望输入每层神经网络的特征是以0为均值的小数值,但经过sigmoid函数后的数据都是正数,使收敛变慢

   ③ Sigmoid函数存在幂运算,计算复杂度大,训练时间长

2.tanh函数:tanh函数和sigmoid函数长相很相近,都是一条S型曲线&

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值