目录
2.4 梯度下降法(通过最小化代价函数(成本函数)J(w,b) 来训练的参数 w 和 b)
2.9 Logistic 回归的梯度下降法(单个样本梯度下降通过更新w,b参数的值实现)
2.13 向量化 Logistic 回归 (实现向前转播激活值a的计算)
2.14 向量化 Logistic 回归的梯度输出(计算全部m个训练样本的梯度)
2.1二元分类(判断0/1)
例如有一个包含 m mm 个样本的训练集,你很可能习惯于用一个for循环来遍历训练集中的每个样本,但是当实现一个神经网络的时候,我们通常不直接使用for循环来遍历整个训练集,所以在这周的课程中你将学会如何处理训练集。
另外在神经网络的计算中,通常先有一个叫做前向暂停(forward pause)或叫做前向传播(foward propagation)的步骤,接着有一个叫做反向暂停(backward pause) 或叫做反向传播(backward propagation)的步骤。所以这周我也会向你介绍为什么神经网络的训练过程可以分为前向传播和反向传播两个独立的部分。
逻辑回归是一个用于二分类(binary classification)的算法。首先我们从一个问题开始说起,这里有一个二分类问题的例子,假如你有一张图片作为输入,比如这只猫,如果识别这张图片为猫,则输出标签1作为结果;如果识别出不是猫,那么输出标签0作为结果。现在我们可以用字母 来 表示输出的结果标签,如下图所示:
我们来看看一张图片在计算机中是如何表示的,为了保存一张图片,需要保存三个矩阵,它们分别对应图片中的红、绿、蓝三种颜色通道,如果你的图片大小为64x64像素,那么你就有三个规模为64x64的矩阵,分别对应图片中红、绿、蓝三种像素的强度值。为了便于表示,这里我画了三个很小的矩阵,注意它们的规模为5x4 而不是64x64,如下图所示:
为了把这些像素值放到一个特征向量中,我们需要把这些像素值提取出来,然后放入一个特征向量 x xx 。为了把这些像素值转换为特征向量 x xx ,我们需要像下面这样定义一个特征向量 x xx 来表示这张图片,我们把所有的像素都取出来,例如255、231等等,直到取完所有的红色像素,接着最后是255、134、…、255、134等等,直到得到一个特征向量,把图片中所有的红、绿、蓝像素值都列出来。如果图片的大小为64x64像素,那么向量 x 的总维度,将是64乘以64乘以3,这是三个像素矩阵中像素的总量。在这个例子中结果为 n x = 12 , 288 n_x=12,288nx=12,288 。现在我们用,来表示输入特征向量的维度,有时候为了简洁,我会直接用小写 n nn 的来表示输入特征向量 x xx 的维度。所以在二分类问题中,我们的目标就是习得一个分类器,它以图片的特征向量作为输入,然后预测输出 y 结果为1还是0,也就是预测图片中是否有猫:
接下来我们说明一些在余下课程中,需要用到的一些符号。
符号定义 :
2.2逻辑回归(wx+b <=> θ x <=> z)
在这个视频中,我们会重温逻辑回归学习算法,该算法适用于二分类问题,本节将主要介绍逻辑回归的Hypothesis Function(假设函数)。
wx+b <=> θ x <=> z
2.3 Logistic 回归损失函数
2.4 梯度下降法(通过最小化代价函数(成本函数)J(w,b) 来训练的参数 w 和 b)
2.5-2.8 求导和链式求导法则(略)
2.9 Logistic 回归的梯度下降法(单个样本梯度下降通过更新w,b参数的值实现)
2.10 m 个样本的梯度下降
摆脱for循环,而引入向量化
2.11向量化
2.12 向量化更多例子
2.13 向量化 Logistic 回归 (实现向前转播激活值a的计算)
2.14 向量化 Logistic 回归的梯度输出(计算全部m个训练样本的梯度)
2.15 Python 中的广播