1.二分类
逻辑回归是一个用于二分类(binary classification)的算法
这里有一个二分类问题的例子:假如有一张图片作为输入,比如这只猫
如果识别这张图片为猫,则输出标签1作为结果
如果识别出不是猫,那么输出标签0作为结果
用字母y来表示输出的结果标签
计算机中为了保存一张图片,需要保存三个矩阵,它们分别对应图片中的红、绿、蓝三种颜色通道
如果图片大小为64x64像素,那么就有三个规模为64x64的矩阵,分别对应图片中红、绿、蓝三种像素的强度值
为了把这些像素值转换为特征向量 x,需要像下面这样定义特征向量 x 来表示这张图片,把所有像素都取出来
那么向量 x 的总维度= 64 x 64 x 3 = 12288,用n = 12,288
在二分类问题中,目标就是学习得一个分类器,以图片的特征向量作为输入
然后预测输出结果y为1还是0,也就是预测图片中是否有猫
2.逻辑回归
对于二元分类问题来讲,给定一个输入特征向量X,它可能对应一张图片
想识别这张图片识别看它是否是一只猫或者不是一只猫的图片,需要一个算法能够输出预测 (对实际值 y 的估计)
更正式地来说,让 y 等于1的一种可能性或者是机会,前提条件是给定了输入特征X
用 w 来表示逻辑回归的参数,这也是一个n维向量,因为w实际上是特征权重,维度与特征向量相同,参数里面还有 b ,这是一个实数,类似截距,表示偏差。所以,给出输入x以及参数w和b之后,产生输出预测值 y ^
y^=wT x+b
这时候得到的是一个关于输入x的线性函数
将线性函数转换为非线性函数。
把水平轴作为z轴,那么关于z的 sigmoid 函数是平滑地从0走向1
通常都使用z来表示 wT x+b的值
如果 z 非常大,那么 e(-z) 将会接近于0,关于 z 的 sigmoid 函数将会近似等于1
相反地,如果 z 非常小或者说是一个绝对值很大的负数,那么 e(-z) 会变成一个很大的数, sigmoid 函数就接近于0
在实现逻辑回归时,就是去让机器学习参数w以及b这样才使得 y^成为对 y = 1 这一情况的概率的一个很好的估计。