激活函数

一、激活函数作用

激活函数是用来加入非线性因素的,解决线性模型所不能解决的问题。

一、激活函数分类

1)阶跃函数
2)sigmoid
3)RELU
4)tanh 函数
5)恒等函数
6)softmax

1)阶跃函数

在这里插入图片描述
阶跃函数的导数在绝大多数地方(除了0之外)的导数都是0。所以用它做激活函数的话,参数们的微小变化所引起的输出的变化就会直接被阶跃函数抹杀掉,在输出端完全体现不出来,训练时使用的损失函数的值就不会有任何变化,这是不利于训练过程的参数更新的。
**参考代码和结果如下:**

在这里插入图片描述
在这里插入图片描述

2)sigmoid

在这里插入图片描述
sigmoid 函数是一条平滑的曲线,输出随着输入发生连续性的变化。而阶跃函数以 0 为界,输出发生急剧性的变化
sigmoid 函数的导数在任何地方都不为0(这对NN的学习非常重要。参数们的一点微小的变化也会引起输出的微小的连续的变化,从而使得损失函数可以连续地变化,从而使得参数的更新正常进行,使得NN的学习正确进行)。
在这里插入图片描述
**参考代码和结果如下:**
在这里插入图片描述
在这里插入图片描述

3)ReLU

在这里插入图片描述
NN的历史上,sigmoid最早被使用。但relu最近用的更多>
**参考代码和结果如下:**
在这里插入图片描述
在这里插入图片描述

4)tanh

在这里插入图片描述
tanh函数的输出结果是零中心数据(输出值以零为中心),所以解决了激活函数在模型优化过程中收敛速度变慢的问题.
在这里插入图片描述
**结果如下:**
在这里插入图片描述

5)恒等函数

机器学习任务通常分为回归和分类两种任务。回归任务是要求出具体的预测值,所以输出层不再使用激活函数进行非线性转换,或者说使用恒等函数作为激活函数,它什么都没做。

6)softmax函数

分类的类别数目等于输出层神经元的数目。
假设输出层有n个神经元,第k个的输出yk​:
在这里插入图片描述
分母是所有输入信号的指数函数的和,所以输出层的每个神经元都要受到所有输入信号的影响。
重要性质:
在这里插入图片描述
这使得我们可以把softmax的输出解释为概率。
**参考代码和结果如下:**
在这里插入图片描述
在这里插入图片描述

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值