花书+吴恩达深度学习(二)非线性激活函数(ReLU, maxout, sigmoid, tanh)

目录

0. 前言

1. ReLU 整流线性单元

2. 绝对值整流线性单元

3. 渗漏整流线性单元

4. 参数化整流线性单元

5. maxout 单元

6. logistic sigmoid 单元

7. 双曲正切单元

8. 径向基函数

9. softplus 函数

10. 硬双曲正切函数


如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔~我会非常开心的~

花书+吴恩达深度学习(一)前馈神经网络(多层感知机 MLP)

花书+吴恩达深度学习(二)非线性激活函数(ReLU, maxout, sigmoid, tanh)

花书+吴恩达深度学习(三)反向传播算法 Back Propagation

花书+吴恩达深度学习(四)多分类 softmax

0. 前言

万能近似定理(universal approximation theorem)表示,一个前馈神经网络如果具有线性输出层和至少一层具有任何一种挤压性质的激活函数的隐藏层,只要给予网络足够数量的隐藏单元,它可以以任意精度来近似任何从一个有限维空间到另一个有限维空间的可测函数,前馈神经网络的导数也可以任意好的近似函数的导数。

假设,在神经网络中不使用非线性激活函数,输入层 x ,隐藏层输出 z_1 ,输出层输出 z_2 ,最终的输出仍然是线性的。

z^{(1)}=(w^{(1)})^Tx+b^{(1)}

\begin{align*} z^{(2)} &=(w^{(2)})^Tz^{(1)}+b^{(2)} \\ &=(w^{(2)})^T((w^{(1)})^Tx+b^{(1)})+b^{(2)} \\ &=(w^{(2)})^T(w^{(1)})^Tx+(w^{(2)})^Tb^{(1)}+b^{(2)} \\ &= w^Tx+b \end{align*}

在新技术的研究和开发期间,通常会测试很多不同的激活函数,并且发现许多标准方法的变体表现非常好。

  • 4
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值