线性回归(用特征之间的规律进行回归处理)是处理连续性的,
逻辑回归(用特征之间的规律进行逻辑处理)属于分类是处理离散性的
关于判断其实就是二分类问题
逻辑回归的基础还是使用了线性回归来处理,只是把模型进行了调整,转化为概率问题
逻辑回归(进行二分类的最快算法,深度学习都可用到)
概念:逻辑回归,即逻辑模型,也译作“评定模型”、“分类评定模型”
回归要求得到的外标签的数值是连续的,逻辑回归则是要进行二分类问题的模型,通过标签在图像上的表示,然后用线性回归的图像线来分隔出各种外标签区域,当数据在哪个区域时来进行判断。所以说逻辑回归应用到了线性回归来解决分类的问题
常用于做数据的初步判断,(推荐算法,医疗诊断等)
运用于推荐算法:评判给用户呈现的内容是否是用户喜欢看到的,这里做出了判断就是二分类的体现
是通过线性模型完成分类效果(线性可分)
sigmoid函数:
sigmoid将线性问题转化为概率问题,函数输出的结果值是把线性回归数据范围映射到了0~1之间了
函数中当变量取0时为1,取正无穷时无限趋于0。这里的变量就是wx+b,属于线性回归的外标签,这样就能将线性问题转化为概率问题,这里的0~1就成了概率问题。
将结果值压缩到0-1之间(0负,1正)
预测值在0.5附近时,可以更快的进行下降,将预测值更加贴近于0或1的数值
0.5就是阈值(求导得到最值),00.5对应的就是负类别,0.51对应的就是正类别,阈值位置的梯度大,那么数据分配到的位置就越靠近0或1,这样的模型才够准确。比如判断正类别时0.55的概率不如0.99的概率更准确
sigmoid函数的中间导数大,两侧导数小,这里的sigmoid求导就是为了能利用到梯度下降从最大值开始向两边0或1下降,然后调整模型通过划分的正负线性回归界限图像线参考,然后建立逻辑回归模型来更好的作二分类判断。注意的是线性回归的求导是对wx+b求导,但是逻辑回归则要对sigmoid函数求导,wx+b只是sigmoid函数的一个参数
梯度下降在调整参数和权重的同时也在调整每个模型预测出来的概率
梯度下降都是往下的,sigmoid函数求导最低的是概率为0或1的位置