防止神经网络中过拟合的方法

今天在阅读tensorflow keras 教程中,学习到以下结论:

Conclusions

To recap: here are the most common ways to prevent overfitting in neural networks:

  • Get more training data.
  • Reduce the capacity of the network.
  • Add weight regularization.
  • Add dropout.

Two important approaches not covered in this guide are:

  • data-augmentation
  • batch normalization

Remember that each method can help on its own, but often combining them can be even more effective.

 

译文如下:

在神经网络训练中,最常见的防止过拟合的方法有:

1. 获取更多的训练集

2. 减少网络的容量;

3. 增加权重正则化;

4. 减少中间层的输出

另外,还有两种方法也有效,分别是:

5. 数据扩充;

6. 批次标准化

我们需要记住:每一种方法只能对自己有帮助,通常需要把以上方法结合使用,效果更佳。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值