直觉化深度学习教程——偏置与激活函数之间的关系

本文探讨了偏置b与激活函数(如Sigmoid、ReLU)在深度学习中的作用。偏置从激活函数的阈值演变而来,影响神经元的激活难易程度。激活函数通过非线性转换提升网络表达能力,ReLU因其梯度消失问题较少而成为主流。整个训练过程中,激活函数的位置会随偏置调整,最终帮助神经网络逼近目标函数。
摘要由CSDN通过智能技术生成

我们看到成熟的神经网络时,往往能看到偏置 b b b与激活函数Sigmoid或ReLU,但是它们是从何而来的呢?

通过探究,我们将获得更深刻的认识。

偏置的前世今生

偏置的由来

用一张图就能说明白。来吧,少年,接图!
在这里插入图片描述

图1.偏置的前世今生

如果我的图做的有点杂乱,那咱们就稍微用用公式。

回忆一下我们之前讨论过的M-P模型,我们的激活函数 f ( z ) f(z) f(z)是一个以 h h h为阈值的阶跃函数,如公式(1)所示。
f ( z ) = { 1 z ≥ h 0 z < h f(z)=\begin{cases} 1&{z \ge h}\\ 0&{z < h} \end{cases} f(z)={ 10zhz<h
我们现在对它进行一点小小的变换,如公式(2)。
f ( z − h ) = { 1 z − h ≥ 0 0 z − h < 0 f(z-h)=\begin{cases} 1&{z-h \ge 0}\\ 0&{z-h < 0} \end{cases} f(zh)={ 10zh0z

  • 6
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值