深度学习的一些知识点总结

本文总结了深度学习中的关键知识点,包括防止输出单一化的目标函数、处理数据分布不一致的方法、bias和variance问题的解决策略。重点讨论了正则化手段如L1、L2和Dropout,解释了它们如何降低过拟合风险,并介绍了数据扩增、早停法等技巧。此外,还提到了归一化和参数初始化对训练的影响,以及ReLU和tanh激活函数的不同初始化方式。
摘要由CSDN通过智能技术生成

目标函数要能防止网络的输出始终是一个单一数值,例如0。

  1. 当training set和test set数据分布不一致时,保证validate set和test set数据分布一致
  2. High bias? 增大加深网络。Large and deep。
  3. High variance?找更多训练数据,regularization

增大加深网络,同时增大训练集数据量,总是可取的。

  1. Regularization:
    • L2 平方和, 对矩阵是Frobenius Norm,在神经网络中也被称作 Weight decay
    • L1 绝对值的和
    • Dropout
      • 训练的时候在每一层按照阈值 p ( 0 &lt; p &lt; 1 ) p (0&lt;p&lt;1) p(0<p<1)随机忽略一些节点,每一层的输出 a a a最后要除以 p p p,即 a = a / p a = a/p a=a/p,以保持输出的大小。By doing this you are assuring that the result of the cost will still have the same expected value as without drop-out. (This technique is also called inverted dropout.)
      • 对于参数较多的层,设置较大的dropout率,参数较少的层,减小dropout率。
      • 对输入层不要dropout
      • 测试时关闭dropout,只在训练时使用。
      • Apply dropout both during forward and backward propagation.
      • The dropped neurons don’t contribute to the training in both the forward and backward propagations of the iteration.
      • At each iteration, you train a different model that uses only a subset of your neurons. With dropout, your neurons thus become less sensitive to the activation of one other specific neuron, because that other neuron might be shut down at any time.
    • 数据扩增,增大数据量。水平翻转、旋转、变形
    • Early stopping。验证集误差开始增加时停止训练。此时权重参数还比较小,因此能避免overfitting
    • Note that regularization hurts training set performance! This is because it limits the ability of the network to overfit to the training set. But since it ultimately gives better test accuracy, it is helping your system.

为什么R

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值