吴恩达深度学习课程学习笔记2

超参数中,有学习率、Momentum梯度下降法的βAdam算法的 、神经网络的层数、隐藏层神经元个数、学习率的衰减率、mini-batch的大小等。其中学习率最为重要,β ,隐藏层神经元个数,mini-batch的大小等次之。

调整超参数的两个原则:   

  1. 随机取值:随机取值不意味着均匀随机地取值,有时还需要应用对数标尺。
  2. 由粗糙到精细:若发现某个范围内的某几个点表现不错,放大这块小区域,在这个区域内更密集地取值。

        通常每隔几个月需要更新超参数。

        调整超参数有两种模式:1、Babysitting one model;2、Training many models in parallel。若有足够CPU资源,绝对选择第二种模式。

 

Batch归一化:

                                                                                       \hat{x}^{(i)}_{norm}=\gamma x^{(i)}_{norm} + \beta

        这样使得隐藏层单元值的均值和方差标准化。若采用这种归一化模型,参数b可取消。

        归一化使每个层稍微独立于前一个层,减少了隐藏值分布的变化,有助于加速网络的学习,还有轻微正则化的作用,因为均值和方差只使用了mini-batch样本来计算,存在噪声。

        当输入测试样本时,此时的μ和 \sigma ^{2}可通过训练集中各个Mini-batch的指数加权平均获得。

 

Softmax

        对于多分类问题,需要在输出层用softmax作为激活函数。                       

        对于零隐藏层的softmax,两个分类之间的决策边界都是线性的。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值