深度学习中的五大正则化技术

本文介绍了深度学习中防止过拟合的五种正则化技术:数据增强通过变换增加训练数据多样性;L1和L2正则化分别通过减少参数绝对值和平方和来降低模型复杂度;Dropout在训练时随机关闭部分神经元;Drop Connect针对权重进行随机稀疏化;早停法则在训练过程中根据验证集性能提前停止训练,避免过拟合。
摘要由CSDN通过智能技术生成

正则化技术是保证算法泛化能力的有效工具,它可以令参数数量多于输入数据量的网络避免产生过拟合现象。

1.1 数据增强

数据增强是提升算法性能、满足深度学习模型对大量数据的需求的重要工具。数据增强通过向训练数据添加转换或扰动来人工增加训练数据集。数据增强技术如水平或垂直翻转图像、裁剪、色彩变换、扩展和旋转通常应用在视觉表象和图像分类中。

1.2 L1 和 L2 正则化

正则化(regularization)的思想是在损失函数中加入刻画模型复杂程度的指标。L1 和 L2 正则化是最常用的正则化方法。L1 正则化向目标函数添加正则化项,以减少参数的绝对值总和;而 L2 正则化中,添加正则化项的目的在于减少参数平方的总和。根据之前的研究,L1 正则化中的很多参数向量是稀疏向量,因为很多模型导致参数趋近于 0,因此它常用于特征选择设置中。机器学习中最常用的正则化方法是对权重施加 L2 范数约束。
标准正则化代价函数如下:
这里写图片描述
注意:损失函数中包括了神经网络中的所有参数,即包括边上的权重w和偏置项b,而模型复杂度一般只由权重w决定。
其中正则化项 R(w) 是:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值