吴恩达深度学习 C1_W2

这篇博客详细介绍了二分分类的概念,以图像中是否存在猫为例,阐述了如何将图像转化为特征向量。接着,讲解了logistic回归,包括其模型、sigmoid函数和损失函数,并探讨了梯度下降法。此外,还讨论了向量化在logistic回归中的应用,以提高计算效率。
摘要由CSDN通过智能技术生成

C1_W2

接下来我们开始第二周(?)的学习


二分分类

那首先什么叫做二分分类呢?我个人的理解就是一个结果分为是与否的问题。

在这里插入图片描述
例如:给定一张图片,让机器判断这张图片中是否有猫的存在。是则输出1,不是则输出0,然后用y来表示输出的结果标签。

计算机保存一张图片,要保存三个独立矩阵分别代表图片红绿蓝的三个颜色通道。如果输入的图片是6464像素的,就会有三个6464的矩阵,矩阵中元素的值分别代表对于像素点三种不同像素的亮度。

为了方便计算,就把红绿蓝三个矩阵的元素从左到右从上到下依次列出来,合并成一个长度为36464的特征向量x,nx=12288表示这个特征向量的维度。

在二分分类中的问题中,我们的目标是训练出一个分类器(classifier)它以特征向量x作为输入预测出结果y是0还是1,也就是预测出图片中是否含有猫。

接下来老师列举了一些会常用到的符号:

在这里插入图片描述
第一行的(x,y)表示一个单独的样本,x是一个nx维度的特征向量,y为0或者1。一个训练集(training example)由m个样本组成,后面(x,y)对的上标i即表示为第i个样本中的x和y,m=m_train表示样本的长度。

接下来我们将m个列向量xi(这里的i为上标)合并成一个nxm的矩阵X,然后将y1,y2······ym组成一个1m的行向量Y,数据的处理到这里就ok了。


logistic 回归

已知输入的x,我们需要一个算法,去得到一个预测值y ^(y hat)表示对y的预测。y可能为1,可能为0,于是y ^为0-1的一个值,表示y可能为1的概率。

例如:x为一张图片,y ^表示这个图片里有猫的概率。

logistic回归中含有两个参数W,b,W为一个nx维度的向量,b为一个实数。
在这里插入图片描述
这样子处理有很大的问题,因为我们需要得到的y ^为0-1的一个值,而线性函数的值域显然不是0-1。于是在这个算式外面套一个sigmoid函数:

在这里插入图片描述
这个sigmoid上一个章节就简单的提到了一下:

在这里插入图片描述
(右边的为函数式)

这个函数能够很好的将R值域上的数值x转化为0-1的数值,其中x越大越接近于1,x越小越接近于0,x越大和越小的时候函数值的变化率都比较小接近于0。

老师后面还介绍了一些对W和b的其他表达方式,不过老师不会在这门课中进行使用,于是不多作赘述(我懒)。


logistic 回归损失函数<

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值