吴恩达深度学习L2W1总结

作业1:初始化

  • 不同的初始化会导致不同的结果
  • 随机初始化用于打破对称性,并确保不同的隐藏单元可以学习不同的东西
  • 不要初始化为太大的值
  • 随机初始化对于带有ReLU激活的网络非常有效

Xavier初始化还不会!!!

作业2:正则化

  • 正则化将帮助减少过拟合。
  • 正则化将使权重降低到较低的值。
  • L2正则化和Dropout是两种非常有效的正则化技术

L2正则化的影响:

  1. 损失计算:
    - 正则化条件会添加到损失函数中
  2. 反向传播函数:
    - 有关权重矩阵的渐变中还有其他术语
  3. 权重最终变小(“权重衰减”):
    - 权重被推到较小的值。

Dropout
Dropout是广泛用于深度学习的正则化技术。 它会在每次迭代中随机关闭一些神经元。

使用dropout时的常见错误是在训练和测试中都使用。你只能在训练中使用dropout(随机删除节点)

作业三:梯度检验

  • 梯度检验可验证反向传播的梯度与梯度的数值近似值之间的接近度(使用正向传播进行计算)
  • 梯度检验很慢,因此我们不会在每次训练中都运行它。通常,你仅需确保其代码正确即可运行它,然后将其关闭并将backprop用于实际的学习过程。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值