Dropout详解

本文详细介绍了dropout算法,作为防止神经网络过拟合的一种有效方法。dropout在训练时随机移除部分神经元,减少复杂度,而在测试时使用完整网络。通过调整保留比例p,可以优化模型性能。实验表明dropout在MNIST数据集上表现出色。
摘要由CSDN通过智能技术生成

算法背景

过拟合的原因:
在使用深度学习算法进行预测时,为了训练出powerful的神经网络,通常需要设计带有大量参数的神经网络。

  • 但若神经网络结构复杂,同时训练数据量小时,容易造成过拟合;
  • 样本噪声
  • 训练集与测试集特征分布不一致
  • 迭代次数过多

常用解决过拟合现象的方法:

  • 数据增强
  • dropout
  • BN(使用BN后就不需要使用dropout)
  • L1/L2,soft weight sharing
  • early stop train(难以控制时间)
  • 降低模型复杂度

算法原理

dropout算法就是在训练过程中,随机移除部分隐藏层的神经元,同时移除掉对应的所有输入与输出。但只是暂时移除,在下一次训练时,又在所有的神经元中随机移除固定比例的神经元。

若隐藏层含有N个神经元,总共有2N种可能的组合,但由于所有的神经网络共享参数,因此参数数量与原来相同,甚至更少。

优点:

  • 在训练阶段,dropout之后神经网络会变“瘦”,这样可以避免神经网络结构太复杂,从而导致过拟合。
  • 同时在预测过程中,相当于对带有更小参数的处理之后的神经网络的预测结果进行取平均值的效果,会使预测结果更准确。
  • 4
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值