6-11 学习笔记

学到了第二门课的第三周

编程作业写到了第二门课的第一周--initalization

  1. 不同的初始化方法可能导致性能最终不同

  2. 随机初始化有助于打破对称,使得不同隐藏层的单元可以学习到不同的参数。

  3. 初始化时,初始值不宜过大。

  4. He初始化搭配ReLU激活函数常常可以得到不错的效果。

dropout避免过拟合,在训练集中使用dropout,而不在测试集中。。。。

Note that regularization hurts training set performance! This is because it limits the ability of the network to overfit to the training set. But since it ultimately gives better test accuracy, it is helping your system.

**What we want you to remember from this notebook**: - Regularization will help you reduce overfitting. - Regularization will drive your weights to lower values. - L2 regularization and Dropout are two very effective regularization techniques.

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值