逻辑回归(Logistic Regression)是一个用于二分分类的算法。
图像在计算机中的存储:
一张64*64像素(pixel)的图片,有三个64*64的矩阵,分别对应红绿蓝三种像素的亮度。用一个向量列出图片中所有的红绿蓝像素强度值,x=[255 231 ...255 134 ... 255 143...](红色全部列出后接着绿色),向量的维度nx将是64*64*3=12288
输入x用矩阵X表示,将输入的x1放进矩阵第一列,x2放进矩阵第二列...最后得到一个nx行,m列的矩阵。同样的,输出矩阵Y是一个1*m的矩阵。
问题:输入一个图片,期望输出1或0来表示是一张有猫的图片或没有猫的图片。
输入x是一个维度为nx的向量,输出的y^在0-1之间,参数w维度也是nx,b是一个实数。输出的y为w转置*x+b,这样得到的值不一定在0-1之间且可能为负,所以加一个西格玛函数σ。
σ(z)的函数图像如下所示,从0-1,光滑,和纵轴相交在0.5,其中z为实数。
当z很大时,σ(z)约为1/1=1;若z非常小,σ(z)约为0
损失函数:衡量算法的运行情况(希望输出的y^和真实的y之间差距越小越好)
当y=1时,L(y^,y)=-logy^,希望L足够小,也就是希望logy^足够大,即y^最大,即y^更接近1;
当y=0时,同理,此时希望y^更接近0
成本函数(Cost function):衡量在全体训练样本上的表现
逻辑回归可以看做一个小的神经网络。