激活函数

目录

一,激活函数

二,线性整流函数

1,斜坡函数

2,带泄露线性整流函数(Leaky ReLU)

3,噪声线性整流(Noisy ReLU)

三,Sigmoid

四,tanh 


一,激活函数

我们用激活函数,来表示不同强度的信号是否激活了神经元,这是这个名字的来由。

主要作用是提供网络的非线性建模能力。

也就是说,需要一个递增函数,定义域是R,值域是0到1的区间(开区间还是闭区间不重要)。

这个激活函数是用来把特征值转化成0-1的数的,这样,整个网络就不是简单的线性计算了。

然而实际上,激活函数本质上就是用于特征值的转化,值域是不是0-1的区间并不是关键。

二,线性整流函数

线性整流函数即修正线性单元(Rectified Linear Unit, ReLU

1,斜坡函数

数学表达式: 

神经网络中的表达式:

这是最常用的激活函数,默认就用这个。

2,带泄露线性整流函数(Leaky ReLU)

​​​​​​​

3,噪声线性整流(Noisy ReLU)

噪声线性整流(Noisy ReLU)是修正线性单元在考虑高斯噪声的基础上进行改进的变种激活函数,加上了一定程度的正态分布的不确定性。

三,Sigmoid

f(x)=\frac{1}{1+e^{-x}}

四,tanh 

f(x)=\frac{1-e^{-2 x}}{1+e^{-2 x}}

除了二元分类的输出层之外,tanh都比Sigmoid要好。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值