正则化(Regularization)、归一化(Normalization)、权重初始化等

本文探讨了深度学习中的正则化方法,包括为何正则化能减少过拟合,Dropout Regularization的原理及应用。还介绍了其他如数据扩增和提早停止训练的正则化手段。此外,讨论了归一化在神经网络中的作用,以及权重初始化对于防止梯度消失和爆炸的重要性。最后,提到了梯度检验的注意事项,如不与dropout同时使用,并在训练前进行检验。
摘要由CSDN通过智能技术生成

正则化(Regularization)

解决深度学习中的over-fitting(high variance)问题,有两个solutions,其中之一就是regularization,另外就是more data。
在这里插入图片描述
正则化就是在原cost function 中加入正则项

Why regularization can reduces overfitting?

直观上理解就是如果正则化系数 λ \lambda λ设置的足够大,那矩阵 W W W就会很小,就会导致隐藏单元的影响被削弱,相当于网络被简化了。然后 Z Z Z也会变小,用tanh function来看, z z z很小的时候接近线性区。

因为一个简单网络是不容易造成overfitting的,所以综上正则化有利于预防过拟合。

Dropout Regularization

dropout 需要设置keep-prob阈值,遍历每个单元,然后通过keep-prob有选择地保留删除 neural network units。达到简化网络的作用。

最常用的就是 Inverted dropout(反转随机激活):通过除以keep-prop,可以确保 a a a的期望值不变,no matter what keep-prop is。
dropout regularization 通常用于CV领域

Other regularization methods

数据扩增:图片放大,旋转,剪切等。得到的数据包含的信息随不能增加太多,但付出的代价几乎没有。
Easy stopping:提早停止训练神经网络。
根据训练误差或 J J J的优化函数,对比验证集误差,可以选择迭代过程停止的位置。
在这里插入图片描述

.
.

归一化(Normalization)

归一化实现数据转化需要两个步骤:

  • 零均值
  • 归一化方差

μ = 1 m ∑ i = 1 m x ( i ) μ =

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值