不必时时怀念我,也不要指望我回来,我离开以后,你们就是我,
Vive le peuple!
与之前的线性回归不同,logistic回归不会返回连续的值,它只会返回表示类型的数值(如0和1),它主要用于分类问题
使用逻辑回归的原因
如图所示,这是一个分类问题,四个点为0,其他为1
如果使用线性回归,最终的误差会非常大,
同时使用线性回归的话,结果可能会远大于0和1
逻辑回归
sigmod函数
公式:
图像:
代价函数
如果直接用之前的代价函数的话,图像可能会成这个样子
有很多局部最优解,误差大
为了解决这个情况,我们换了一种代价函数,对预测算法添加了惩罚机制
在y=1的情况下:
如果它预测的是1,并且实际结果也为1,则它受到的惩罚越小,反之则越大
在y=0的情况下:
如果它预测的是0,并且实际结果也为0,则它受到的惩罚越小,反之则越大
对代价函数进行简化可得
梯度下降
和线性回归的方式非常接近,唯一的区别是h函数的不同,在这里h函数为sigmod函数
注:吴恩达提到这几个算法进行代价函数和其偏导进行计算,更高级
多元分类
如果需要进行多项内容的分类,则可以使用一对多的思想
通过将其他类别当作同一类内容进行分类
如果要进行预测,则输入x之后,查看分类结果(h(i))哪个最大,则就属于哪一类分类器