防止过拟合的方法

1.增加训练数据量

深度学习网络中需要训练的参数较多,需要更多的数据量才能获得稳定的训练结果,增加训练样本可以有效防止过拟合,数据不足的时候可以使用数据增强技术,例如在图像方面使用数据增强平移图像的位置、姿态、尺度、明暗等等。

2.合理的数据切分

针对现有数据集,可以将数据集进行切分,转化成训练集、测试集、验证集,针对切分的结果,可以用训练集训练深度学习网络,通过验证集来监督学习过程,在过拟合之前完成监督网络的学习过程,防止过拟合。

3.正则化方法

正则化是在损失函数上添加对训练参数的惩罚范数,添加范数惩罚对需要训练的参数进行约束,防止过拟合。常用的L1范数、L2范数,L1范数惩罚项目的将参数绝对值最小化,L2惩罚项目的将参数的平方和最小化。

4.Dropout

在深度学习网络中最常用的正则化技术通过引入Dropout层,随机丢掉一些神经元,即在每个训练批次中,忽略一定的神经元数量,减轻网络的过拟合现象。

5.提前结束训练

当loss不在减小的时候,应该提前结束训练。

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值