一、逻辑回归
只有两种可能性输出的问题叫做二元分类。
逻辑回归是一种应用广泛的算法,用来解决一些实际的问题。
比方说判断肿瘤的属性,我们只有良性和恶性这两种类别,我们分别将其赋值为1和0,这是一个典型的二元分类,而这时面对大量的数据,线性回归拟合的曲线模型便不再那么合适了,我们需要另想他法。
这时,逻辑函数便派上了用场
显然这样的模型更适合面对二元分类这样的问题,逻辑函数的输出在0和1之间,倘若我们得到了一个0.7的数据,即有70%的可能为良性(恶性)
逻辑函数的样子是,其中0<g(z)<1,,全部展开如下,是优美的
二、决策边界
当我们了解完逻辑回归之后,就不得不提一下决策边界了,二元分类只有两种可能,当我们得到一个小数的结果时,我们便要输出0或者是1,这时我们就要设定一个阈值,比方说大于0.5的一律输出1,这里的0.5便可以看作是阈值。
当的时候,我们称此为决策边界
直观的,当x1+x2等于3的时候,便是决策边界,我们把这条线画出,完美!
当z中的向量x复杂的时候,我们只要记住令z等于零便可以得到决策边界,所有的都可以这样!这是好的!
三、逻辑回归中的代价函数
代价函数,又称成本函数,我们之前在学习线性回归的时候就有用到,而且代价函数在其间起到了重要的作用,尤其是我们在梯度下降的时候。
如果我们像一元线性回归方程那样以方差来计算代价函数的时候,我们得到的是一个这样的图像:
有很多个局部最小值,这显然不是我们想要的结果,那么我们可以考虑一下换一个成本函数,从而使梯度下降可以收敛得到全局最小值。代价函数的本质意义要考虑实际值与预测值的偏移,我们称之为损失。那么对于逻辑回归,它有自己的损失函数
如果那么它的损失函数为
如果那么它的损失函数为
可以看到两种情况下的损失函数,当我们预测正确的时候,损失就会很小,甚至是0,而当我们在一个很大的可能性下预测错误的时候,损失函数就可能变成无穷大,这是和线性的模型有所不同的
我们也可以以一个简单的方式来写我们的损失函数,如图(懒得打公式了)
相应的,我们也可以得到代价函数(成本函数)J