L2正则化Regularization详解及反向传播的梯度求导

本文深入解析L2正则化原理,探讨其在反向传播中的梯度计算,并通过TensorFlow和PyTorch的实例进行验证,展示了L2正则化在神经网络权重更新中的应用。
摘要由CSDN通过智能技术生成

摘要

本文解释L2正则化Regularization, 求解其在反向传播中的梯度, 并使用TensorFlow和PyTorch验证.

相关

系列文章索引 :

https://blog.csdn.net/oBrightLamp/article/details/85067981

正文

1. L2 正则原理

若某一个神经网络存在一个参数矩阵 W m × n W_{m\times n} Wm×n, 该网络在训练时输出一个损失值 error (标量 e 0 e_0 e0), 对 W 加上L2正则化项后的损失值为 e e e. 已知 e 0 e_0 e0 对 W 的梯度为 ∇ e 0 ( W ) \nabla {e_0}_{(W)} e0(W), 求 e 对 W 的梯度.

根据题意 :
e = e 0 + r    r = λ 2 ∑ i = 1 m ∑ j = 1 n w i j 2 e = e_0+r\\ \;\\ r = \frac{\lambda}{2}\sum_{i=1}^{m}\sum_{j=1}^{n}w_{ij}^2 e=e0+rr=2λi=1mj=1n

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值