线性回归(Logistic regression)是一个适用于二分类(Binary Classification) 问题
二分类问题举例:
输入一张图片,判断该图片是否是一只猫饼,是猫饼输出1,不是输出0
首先我们用 y来表示输出的结果标签
在计算机中,我们所看到的图像是使用RGB(red,green,bule)三种颜色来显示的,通过不同的R,G,B数值来显示不同的像素点,最终一个个像素点组合成我们所要看到的图像,如下图所示:
我们把这些像素值提取出来,放入一个特征向量X中:
如果我们输入的图像是64x64的三通道彩色图片,我们的特征向量X就是一个长度为64643=12288的一维向量(如上图)
所以在二分类问题中,我们需要实现的就是训练出一个分类器(classifier),这个分类器以我们的特征向量x作为输入,并进行预测,最后输出结果标签y(1或0),标签结果代表图片中是否有猫饼
一些符号:
好的符号,能够使得后期深度学习的时候将不同训练样本的数据关联起来(将不同的训练样本数据取出来放到不同的列上)
我们使用一对 (x,y) 来表示一个单独的样本;
x代表的是nX维的特征向量,y则是label标签:0或1
我们的训练集由m个训练样本组成,我们使用(x1,y1)来表示第一个样本(这里的1是上标小1)
依次类推,直到最后一个样本(xm,ym)。
{(x1,y1)…(xm,ym)} 代表的就是整个训练集
——————————————————————————————————————
我们使用小写的m来表示整个训练集中的样本个数
——————————————————————————————————————
我们定义一个大矩阵X,由m列的特征向量x组成,每个特征向量x有mx维,如下图
所以矩阵X是一个nxm的矩阵,在python中可以用X.shape()输出矩阵维度
——————————————————————————————————————
对于label标签数据,我们同样也是用一个1m维度的矩阵来表示:
结束语:
符号的定义在后期理解训练样本很重要,可以翻阅