deeplearning.ai神经网络和深度学习学习笔记

逻辑回归

单个样本的情况如下:
这里写图片描述

前向传播

假设一个样本有2个特征 x1,x2 x 1 , x 2 ,从左向右传播,依次求出 z,a z , a 和损失函数,我们需要一次次的更新参数 w1,w2,b w 1 , w 2 , b 来最小化损失函数。

求损失函数导数

这里写图片描述

m个样本的梯度下降

上述情况是一个样本的损失函数最小化过程,下面是训练集整体m个样本的过程:
首先来一些数学上符号的表示,这些符号在这门课中频繁使用。
- 整体的损失函数

J(w,b)=1mi=1mL(a(i),y(j)) J ( w , b ) = 1 m ∑ i = 1 m L ( a ( i ) , y ( j ) )

J(w,b)w1=1mmi=1L(a(i),y(j))w1 ∂ J ( w , b ) ∂ w 1 = 1 m ∑ m i = 1 ∂ L ( a ( i ) , y ( j ) ) ∂ w 1

向量化

在计算形如 z=wTx+b z = w T x + b 会涉及大量运算,如果使用for循环串行计算很费时,使用numpy的矩阵运算大大节省时间,这也是为什么都用矩阵或者向量表示的一个原因。
这里写图片描述

浅层神经网络

神经网络表示

这里写图片描述

浅层神经网络运算的向量表示
  • 一个样本的向量表示
    这里写图片描述
  • m个样本向量表示
激活函数

一般双曲正切激活函数在隐藏层中比sigmod更合适,除非在输出层使用sgmoid
这里写图片描述

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值