学习笔记—神经网络与正则化

本文探讨了神经网络中的正则化,特别是L2正则化,如何通过增加损失函数来减少过拟合。同时,介绍了Dropout技术,这是一种在训练过程中随机关闭节点以提高模型泛化能力的策略。通过这两个方法,可以有效地防止深层神经网络过拟合,提升模型的泛化性能。
摘要由CSDN通过智能技术生成

神经网络与正则化

正则化项能够控制模型的过拟合问题,深层神经网络模型如果不添加正则化项,很容易陷入过拟合。

1 L2 Regularization

1.1 正则化惩罚到底做了什么?

最常见的用于控制过拟合的方法为L2正则化,它所做的只是对损失函数增加了系数惩罚——在原公式基础上增加所有系数的二次方值的和。
原始损失函数:

J=1mi=1m(y(i)log(a[L](i))+(1y(i))log(1a[L](i)))(1)

L2正则化损失函数:
Jregularized=
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值