深度学习入门之反向传播算法理解(吴恩达第一课第二周)

第一、把图片的三个通道矩阵转化为一个特征向量。这个特征向量的长度为长3.
在这里插入图片描述
二、一般X代表的是所有输入的一个矩阵,每一列就是一个特征向量,即一张图片。Y代表的是所有的输出。一个行向量。而W则是一个参数矩阵,W中的每一个元素都和X1 X2 X…中的每一个元素相乘得到一个最终值。
在这里插入图片描述
x和y的上标代表的是第i个样布的输入和输出
损失函数和代价函数用下图所示的公式:
在这里插入图片描述
如上图所示,我们最终的目的是要找到让J 最小的w和b,即图中的最低点,采用的方法就是梯度衰减法,不断的让J沿着有关w的下降最快的方向行走。学习率就是每次走的步长。梯度衰减的公式如下,其中约定dw表示dJ/dW

在这里插入图片描述
通过反向传播来优化参数就是一个链式法则偏导过程,求出J对于各个输入量参数的关系,然后找到偏导(下降最快的地方),然后开始迭代,更新参数,让J 变的更小
在这里插入图片描述
在神经网络里,一个特征向量x1对应一个参数向量w??每一个神经元对应每一个输入也有一个W??
目前理解为w的长度应等于特征向量的长度
在这里插入图片描述
一个简单的神经网络的梯度下降算法如下,这张图包含了dw和db的推导
在这里插入图片描述
最后,关于用numpy写一个简单的反向传播识别猫的神经网络做一个总结,总的步骤分为以下4步:
在这里插入图片描述
算法描述如下
在这里插入图片描述
算法部分搭建步骤如下
在这里插入图片描述
正向反向传播的步骤及相关公式如下:
在这里插入图片描述
梯度衰减,优化的步骤如下:
在这里插入图片描述
预测函数的步骤如下:
在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值