假设原先未加入正则优化的
现在进行L1正则分析:
对其求偏导数:
因此的更新函数:
参数不需要做任何变化。
现在进行L2正则分析:
对其求偏导数:
因此的更新函数:
参数不需要做任何变化。
对于的求解可以参考:
Neural Networks中使用Cross-Entropy Cost Function交叉熵损失函数的理论推导
Neural Network-Softmax function-Cross Entropy Cost function的公式推导过程
假设原先未加入正则优化的
现在进行L1正则分析:
对其求偏导数:
因此的更新函数:
参数不需要做任何变化。
现在进行L2正则分析:
对其求偏导数:
因此的更新函数:
参数不需要做任何变化。
对于的求解可以参考:
Neural Networks中使用Cross-Entropy Cost Function交叉熵损失函数的理论推导
Neural Network-Softmax function-Cross Entropy Cost function的公式推导过程