[深度学习] 神经网络中的激活函数(Activation function)

20180930 在研究调整FCN模型的时候,对激活函数做更深入地选择,记录学习内容

激活函数(Activation Function),就是在人工神经网络的神经元上运行的函数,负责将神经元的输入映射到输出端。

在这里插入图片描述

  • 线性激活函数:最简单的linear function就是f(x) = x,不对输入进行修改就直接输出
  • 非线性激活函数:这些函数用于对不可线性分离的数据进行分离,是最常用的激活函数。非线性方程控制从输入到输出的映射。常用的非线性激活函数的例子是Sigmoid,tanH,ReLU,LReLU,PReLU,Swish等。

使用激活函数的原因

参考 https://www.zhihu.com/question/22334626

  • 单层感知机 Perceptron

这是一个单层的感知机,也是我们最常用的神经网络组成单元,用它可以在平面中划出一条线,把平面分割开,进行二分类。

在这里插入图片描述

  • 多感知机组合 Perceptron

多个感知机组合,能够在平面中进行更复杂的分割,获得更强的分类能力。

在这里插入图片描述

由感知机的结构来看,如果不用激励函数,每一层输出都是上层输入的线性函数,无论神经网络有多少层,输出都是输入的线性组合,无法直接进行非线性分类

  • 7
    点赞
  • 33
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值