Datawhale X 李宏毅苹果书 AI夏令营 Task 2

课程内容


(一)术语解释

一 . Sigmoid函数与Hard Sigmoid 函数

(1)Sigmoid函数

        Sigmoid函数,也称为逻辑函数(Logistic function),是一种在数学、生物学、信息科学、神经网络等领域广泛应用的激活函数。也就是高中生物中所学的S型增长曲线。

它的数学表达式为:

\sigma (x) = \frac{1}{1+e^{-x}}

        Sigmoid函数的图像呈现出S形的曲线,其值域限定在(0, 1)之间,这使得它特别适合用于表示概率或者将任意实数映射到(0, 1)区间内。

Sigmoid函数的导数为:

\sigma '(x) = \sigma (x) (1 - \sigma(x))

        这个导数表达式的简洁性使得在神经网络的反向传播过程中计算梯度变得非常方便。Sigmoid函数的优点包括输出范围的限制、平滑性和非线性特性,这些特性有助于神经网络学习和表示复杂的非线性函数关系。

        然而,Sigmoid函数也存在一些缺点,如梯度消失问题和计算开销较大,这些缺点在深层神经网络中可能会成为训练的障碍.

(2)Hard Sigmoid 函数

        Hard Sigmoid函数是一种非线性激活函数,它是Sigmoid函数的一个近似,设计用于提供更高效的计算和更稳定的梯度。

Hard Sigmoid函数的数学表达式通常定义为:

HardSigmoid(x) = max(0,min(1, \alpha \cdot x + \beta ))

        其中,\alpha 和 \beta 是可调整的参数,常用的取值为\alpha =1/6和 \beta =1/3。这样定义的Hard Sigmoid函数在x取值在 [-3, 3] 范围内比较接近于Sigmoid函数的形状,而对于超出这个范围的输入,其输出将被限制在0和1之间。

        Hard Sigmoid函数的优点包括计算简单、效率高,以及在反向传播时计算稳定,避免了Sigmoid函数在输入绝对值较大时梯度消失的问题。此外,Hard Sigmoid函数可以增加网络的稀疏性,有助于模型的训练和优化。 

(二) 模型总结

一 . 线性模型(linear model)

把输入的特征 x 乘上一个权重,再加上一个偏置就得到预测的结果,这样的模型称为线性模型。

公式可以简化为:

y = w\cdot x + b

在本书的例子中,权重 w 与偏重 b 的关系通过梯度下降优化降低了损失。但是线性模型只能通过前一个数据向后推一个数据,这说明该模型并不准确,需要调整。

再通过优化,可以通过处理多个数据,用公式:y = \sum_{i=1}^{n} w_i \cdot x_i +b 

但是,线性模型仍会有缺陷:无法模拟出复杂数据的关系。如下图,无论蓝线如何调整,都无法得到表示实际数据的红线。

由此引出其他的数据模型。

二 . 分段线性曲线(piecewise linear curve)

        红色曲线可以看作是一个常数,再加上一堆蓝色的函数。分段线性曲线可以用常数项加一大堆的蓝色函数组合出来,只是用的蓝色函数不一定一样。要有很多不同的蓝色函数,加上一个常数以后就可以组出这些分段线性曲线。如果分段线性曲线越复杂,转折的点越多,所需的蓝色函数就越多。

 

  • 9
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值