逻辑回归原理介绍:
线性回归能对连续值进行预测,而现实生活中常见的是分类问题。既然能够用线性回归预测出连续值结果,那根据结果设定一阈值是不是就可以解决这个问题了呢?事实上对于很标准的情况下确实是可以的。但很多实际的情况下,我们需要学习的分类数据并没有那么精准,因此引出逻辑回归。即将线性回归预测的值通过sigmoid函数映射到0和1之间。
定义代价函数,其实是一种衡量预测的结果与实际结果差距的函数,比如线性回归的代价函数是所有预测结果与实际结果的平方差和,当然我们也可以和线性回归类比得到代价函数,但这里的预测结果是通过S型函数映射的结果,用平方差和会出现非凸函数的问题,简单的说就是函数会有多个局部极值点。我们希望代价函数是一个凸函数,实际上我们也找到了一个适合逻辑回归的代价函数:
对于类别为1的代价函数为,图像为下图左边蓝色线,当预测结果为0时,代价函数值非常大,预测结果越接近于1