为什么使用激活函数?

分段线性曲线

对于简单的线性模型,即y=b+wx,仅凭一条直线无法解决现实中很多问题的,所以要引入分段线性曲线,例如下图

a563f352dfbf45928fa87e8609391786.png

从图中可以观察到红色线条(分段线性曲线)作为真实情况是无法用类似一条蓝色线条来描述的,同时我们可以看到不同的w影响的是斜率,不同的b影响的是截距

如何表示分段线性曲线呢?

其实红色线条作为真实曲线,利用模型训练很难训练出完全重合的模型参数,仅仅可以无限贴近,那么如何去无限贴近呢?

第一种方法,借助多个hard sigmoid函数进行组合成红色曲线

6d5f73df29f94b9b86bc2c509de3d395.png

这里hard sigmoid函数很难描述,所以我们常把他近似为sigmoid函数

06ba93b0982f47048244c2deef610466.png

第二种方法,借助Relu激活函数,两个Relu激活函数可以合起来一个hard sigmoid函数

其实Relu,和Sigmoid都是常用的激活函数

激活函数的使用

第一种,平行使用多个激活函数,进一步构造较为复杂的函数,来解决复杂问题

95aa87fe6f9f47ebb546500d627bbdca.png

第二种,嵌套使用,其实一个激活函数的结果可以作为激活函数的输入

bcc5061304a84a5490c826b4db530b59.png

这也是为什么我们平时看见的神经网络是多层的原因,其实归根到底,一个完整的网络激活函数的使用采用的是这两种方式

Sigmoid 或 ReLU 称为神经元(neuron),很多的神经元称为神经网络 (neural network)。人脑中就是有很多神经元,很多神经元串起来就是一个神经网络,跟人 脑是一样的。人工智能就是在模拟人脑。神经网络不是新的技术,80、90 年代就已经用过了, 后来为了要重振神经网络的雄风,所以需要新的名字。每一排称为一层,称为隐藏层(hidden layer),很多的隐藏层就“深”,这套技术称为深度学习。

机器学习框架

45bdcc21fb8945a892978c4c23438f3a.png

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值