pytorch激活函数

本文介绍了激活函数的起源,重点分析了Sigmoid、Tanh和ReLU三种常见激活函数,包括它们的数学特性、应用场景以及解决梯度问题的优势。Sigmoid用于概率问题,Tanh适用于RNN,ReLU则因不易出现梯度问题而广泛使用。
摘要由CSDN通过智能技术生成

1.激活函数由来

科学家对青蛙的神经元进行研究的时候发现,只有超过一定的阈值青蛙才会有反应,因此不能将多个输入做简单的加权平均,而需要一个阶梯函数也就是激活函数,激活的概念也就是

在这里插入图片描述
单层感知机阶梯函数不连续,因此不可导
计算机神经元模型
在这里插入图片描述

2. 常见激活函数

2.1 Sigmoid

为了解决阶梯函数不可导的问题,科学家发明了sigmoid激活函数,sigmoid的值范围(0,1)
sigmoid常用于0~1的概率问题以及颜色RGB值的表示
sigmoid函数当x值趋于正无穷时,函数值接近1导数为0使得梯度一直得不到更新,从而产生梯度弥散的问题
在这里插入图片描述
梯度推导
在这里插入图片描述

在这里插入图片描述

2.2 Tanh

Tanh多用于循环神经网络RNN,Tanh值的范围为[-1,1]
在这里插入图片描述

梯度推导
在这里插入图片描述
在这里插入图片描述

2.3 relu

relu函数是目前用的最多的激活函数,当x<0时导数为0,x>0时导数为1,函数值x<0时为0,x>0时线性变换。
relu梯度在x>0时是1,使得梯度计算时,梯度不会放大也不会缩小,因此不容易出现梯度弥散和梯度爆炸的情况
在这里插入图片描述
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值