吴恩达深度学习笔记——DAY4

目录

一、神经网络的梯度下降

 二、随机初始化

三、深层神经网络

四、矩阵的维数

 五、参数VS超参数


一、神经网络的梯度下降

正向传播的方程:

反向传播方程:

二、随机初始化

如果你要初始化成 0 ,由于所有的隐含单元都是对称的,无论你运行梯度下降多久,他 们一直计算同样的函数。这没有任何帮助,因为你想要两个不同的隐含单元计算不同的函数, 这个问题的解决方法就是随机初始化参数。

 初始化如下:

这里的0.01是为了使得产生的随机数数值小一点,避免数值太大梯度下降很慢,学习变慢。当然,也可以选择其他的相对小的书值,并不一定必须是0.01。

三、深层神经网络

神经网络的层数是这么定义的: 从左到右,由 0 开始定义。当我们算神经网络的层数时, 我们不算输入层,我们只算隐藏层和输出层。
前向传播步骤,输入 a^{[l-1]},输出 a^{[l]}: 
其中 A^{[0]}就是样本的输入特征X。

反向传播步骤,输入为da^{[l]},输出为da^{[l-1]}dw^{[l]}]db^{[l]}

 最后给出的整体流程如下图:

四、矩阵的维数

向量化后

五、参数VS超参数

超参数实际控制了最后的参数W和b的值,比如如算法中的 learning rate  \alpha(学习率)、iterations(梯度下降法循环的数量)、L(隐藏 层数目)、n^{[l]} (隐藏层单元数目)、choice of activation function(激活函数的选择)

寻找超参数的最优质Idea—Code—Experiment—Idea 这个循环,尝试各种不同的参数,实现模型并观察是 否成功,然后再迭代。

  

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值