机器学习常见公式推导

线性层的反向传播

对于函数 Y = X W Y = XW Y=XW( 注: X X X是一个 m × n m \times n m×n的矩阵, W W W是一个 n × k n \times k n×k的矩阵, Y Y Y是一个 m × k m \times k m×k的矩阵。这里的 W W W通常代表模型的权重,而 X X X代表输入数据。)

如何求 ∂ Y ∂ W \frac{\partial Y}{\partial W} WY呢,通常我们只关心其一个特定的切片,即 ∂ Y i j ∂ W r s \frac{\partial Y_{ij}}{\partial W_{rs}} WrsYij

对于单个元素 Y i j Y_{ij} Yij而言,其是矩阵 X X X的第 i i i行和矩阵 W W W的第 j j j列的点积。因此:

Y i j = ∑ p = 1 n X i p ⋅ W p j Y_{ij} = \sum_{p=1}^{n} X_{ip} \cdot W_{pj} Yij=p=1nXipWpj

当我们对 Y i j Y_{ij} Yij关于 W r s W_{rs} Wrs求导时,我们只关心 W r s W_{rs} Wrs这一项,其他项的导数为0。因此:

∂ Y i j ∂ W r s = ∂ ∂ W r s ( ∑ p = 1 n X i p ⋅ W p j ) \frac{\partial Y_{ij}}{\partial W_{rs}} = \frac{\partial}{\partial W_{rs}} \left( \sum_{p=1}^{n} X_{ip} \cdot W_{pj} \right) WrsYij=Wrs(p=1nXipWpj)

∂ Y i j ∂ W r s = X i r ⋅ ∂ W s j ∂ W r s \frac{\partial Y_{ij}}{\partial W_{rs}} = X_{ir} \cdot \frac{\partial W_{sj}}{\partial W_{rs}} WrsYij=XirWrsWsj

由于 ∂ W s j ∂ W r s \frac{\partial W_{sj}}{\partial W_{rs}} WrsWsj只有当 s = r s = r s=r j = s j = s j=s时才为1,否则为0,因此:

∂ Y i j ∂ W r s = X i r ⋅ δ s j \frac{\partial Y_{ij}}{\partial W_{rs}} = X_{ir} \cdot \delta_{sj} WrsYij=Xirδsj

其中 δ s j \delta_{sj} δsj是Kronecker delta 函数,当 s = j s = j s=j时为1,否则为0

因此, ∂ Y ∂ W \frac{\partial Y}{\partial W} WY的每个元素 ∂ Y i j ∂ W r s \frac{\partial Y_{ij}}{\partial W_{rs}} WrsYij都是一个 m × n × k m \times n \times k m×n×k的张量,其中 i i i j j j分别索引 Y Y Y的行和列,而 r r r s s s分别索引 W W W的行和列。

然而,通常我们不会将 ∂ Y ∂ W \frac{\partial Y}{\partial W} WY视为一个张量,而是将其简化为一个矩阵。因为在实际应用中,我们通常对整个矩阵 W W W进行更新,而不是单独更新它的每个元素。因此,我们可以将 ∂ Y ∂ W \frac{\partial Y}{\partial W} WY的所有元素 ∂ Y i j ∂ W r s \frac{\partial Y_{ij}}{\partial W_{rs}} WrsYij合并成一个 m × k × n m \times k \times n m×k×n的张量,然后将其简化为一个 m × n m \times n m×n的矩阵,即 X X X。这是因为在矩阵乘法中, Y Y Y的每个元素 Y i j Y_{ij} Yij只依赖于 X X X的第 i i i行和 W W W的第 j j j列,所以 ∂ Y ∂ W \frac{\partial Y}{\partial W} WY实际上是一个 m × n m \times n m×n的矩阵,而不是一个 m × n × k m \times n \times k m×n×k的张量,最终有:

∂ Y ∂ W = X \frac{\partial Y}{\partial W} = X WY=X

可通过此网站 https://www.matrixcalculus.org/ 验证矩阵求导的正确性。

在神经网络的链式求导过程,我们求 Y Y Y W W W的梯度,通常还会乘以 Y Y Y本身对应的梯度 g r a d y grad_y grady g r a d y grad_y grady m × k m \times k m×k的矩阵,这时候我们需要对 ∂ Y ∂ W \frac{\partial Y}{\partial W} WY转置。

Softmax函数的反向传播

Softmax函数的定义是:

p i = e z i ∑ j e z j p_i = \frac{e^{z_i}}{\sum_j e^{z_j}} pi=jezjezi

对于Softmax函数的导数 ∂ p i ∂ z j \frac{\partial p_i}{\partial z_j} zjpi, 可以通过以下方式计算:

∂ p i ∂ z j = ∂ ∂ z j ( e z i ∑ k e z k ) \frac{\partial p_i}{\partial z_j} = \frac{\partial}{\partial z_j} \left( \frac{e^{z_i}}{\sum_k e^{z_k}} \right) zjpi=zj(kezkezi)

使用商的求导法则,我们得到:

∂ p i ∂ z j = e z i ⋅ ∂ ∂ z j ( ∑ k e z k ) − ∂ ∂ z j ( e z i ) ⋅ ∑ k e z k ( ∑ k e z k ) 2 \frac{\partial p_i}{\partial z_j} = \frac{e^{z_i} \cdot \frac{\partial}{\partial z_j}(\sum_k e^{z_k}) - \frac{\partial}{\partial z_j}(e^{z_i}) \cdot \sum_k e^{z_k}}{(\sum_k e^{z_k})^2} zjpi=(kezk)2ezizj(kezk)zj(ezi)kezk

简化后,我们得到:

∂ p i ∂ z j = e z i ⋅ δ i j − e z i ⋅ e z j ( ∑ k e z k ) 2 \frac{\partial p_i}{\partial z_j} = \frac{e^{z_i} \cdot \delta_{ij} - e^{z_i} \cdot e^{z_j}}{(\sum_k e^{z_k})^2} zjpi=(kezk)2eziδijeziezj

其中 δ i j \delta_{ij} δij是Kronecker delta函数,当 i = j i = j i=j时为1,否则为0。

进一步简化,我们得到:

∂ p i ∂ z j = p i ⋅ ( 1 − δ i j ) − p i ⋅ p j \frac{\partial p_i}{\partial z_j} = p_i \cdot (1 - \delta_{ij}) - p_i \cdot p_j zjpi=pi(1δij)pipj

最终,我们得到Softmax函数的导数为:

∂ p i ∂ z j = { p i ( 1 − p j )  , if  i = j ; − p i p j  , if  i ≠ j \frac{\partial p_i}{\partial z_j} = \begin{cases} p_i (1 - p_j) \text{ , if } i = j; \newline -p_i p_j \text{ , if } i \neq j \end{cases} zjpi={pi(1pj) , if i=j;pipj , if i=j

Softmax函数的导数是一个矩阵,其中每个元素都是输出概率的函数。

Relu函数的反向传播

ReLU(Rectified Linear Unit)函数是深度学习中常用的一种激活函数,其数学表达式为:

f ( x ) = max ⁡ ( 0 , x ) f(x) = \max(0, x) f(x)=max(0,x)

其反向传播公式为:

∂ f ( x ) ∂ x = { 0  , if  x ≤ 0 ; 1  , if  x > 0 \frac{\partial f(x)}{\partial x} = \begin{cases} 0 \text{ , if } x \leq 0; \newline 1 \text{ , if } x > 0 \end{cases} xf(x)={0 , if x0;1 , if x>0

MSE函数的反向传播

MSE(Mean Squared Error)函数是深度学习中常用的一种损失函数,其公式如下:

M S E = 1 n ∑ i = 1 n ( y i − y ^ i ) 2 MSE = \frac{1}{n} \sum_{i=1}^{n} (y_i - \hat{y}_i)^2 MSE=n1i=1n(yiy^i)2

其中, n n n是数据点的数量, y i y_i yi是第 i i i个数据点的真实值, y ^ i \hat{y}_i y^i是第 i i i个数据点的预测值。

在反向传播过程中,MSE 损失函数单个预测值 y ^ i \hat{y}_i y^i的梯度可以表示为:

∂ M S E ∂ y ^ i = − 2 n ( y i − y ^ i ) \frac{\partial MSE}{\partial \hat{y}_i} = -\frac{2}{n} (y_i - \hat{y}_i) y^iMSE=n2(yiy^i)

  • 11
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值