激活函数

激活函数是神经网络中引入非线性的重要工具,用于解决线性模型无法处理的复杂问题。常见的激活函数有Sigmoid、tanh、ReLU及其变种,如Leaky ReLU和PReLU。ReLU因其加速SGD收敛而广泛使用,但也存在“死亡”问题,可以通过调整学习率或使用Leaky ReLU来缓解。Maxout是对ReLU的推广,但参数更多,可能导致过拟合。
摘要由CSDN通过智能技术生成

1、什么是激活函数

激活函数(Activation Function)是用来加入非线性因素的,能够把输入的特征保留并映射下来。简单来说,就是用来拟合非线性的问题。


2、为什么要引进激活函数

线性的模型的表达能力不够。
a.对于一些线性问题可以线性区分,如一条直线对分类问题进行简单区分。这时可以使用单层感知机,单层感知机是神经网络组成单元。

b.对于一些非线性问题,可以在线性的基础上做一些线性变换或可以选择多层感知机(前馈神经网络)。多层感知机,不过是复杂的线性组合,此模型前向,无反馈,可以用无限多条直线逼近一条曲线。如三个函数f1,f2,f3:

         f(x)=f3(f2(f1))
         f1:第一层
         f2:第二层
         f3:第三层

但对于需要大量线性函数拟和曲线的多层感知机,这样做太复杂和麻烦。
所以这个时候,就引入非线性函数。能够把输入的特征保留并映射下来,拟合非线性。


3、激活函数实例

为了更进一步的理解激活函数,下面就来举一个常用的例子,虽然烂大街,但是却十分经典:异或问题

这里写图片描述

显然异或函数非线性函数,线性不可分。但是我们可以设计一种神经网络,通过激活函数来使得这组数据线性可分。激活函数我们选择阀值函数(threshold function),也就是大于某个值输出1(被激活了),小于等于则输出0(没有激活)。这个函数是非线性函数。

这里写图片描述

这里写图片描述

如此就解决线性模型所不能解决的问题。


4、激活函数种类

Sigmoid

σ(x)=11+e
  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值