这两天学习逻辑回归模型,看了很多博客、知乎。很多人虽然标题写着“逻辑回归公式推导”,可是内容明明写的却是“逻辑回归损失函数的推导”,“逻辑回归公式”的推导都是直接给出公式。。。看得我很懵啊。
直到在知乎上找到这个https://zhuanlan.zhihu.com/p/36985192,大佬牛逼。
这里只写逻辑回归公式的推导,不写损失函数的推导,这个推导的偏导数确实很难。
正文:
逻辑回归其实是以某个线性分割面来分割各个类别的,2分类是逻辑回归本质解决的问题,由2分类可以推广到多分类(one vs last)
逻辑回归服从贝叶斯法则,即它对样本的分类是看样本对哪个类别后验概率最大:
其中,表示给定x,分类为类别k的概率。
那么对于类别i,j,他们之间的分割面方程为:
取对数
分割面方程==>
由于在逻辑回归中,分割面是线性的,令
(1)
在二分类中,有
带入(1)中,有
==>
==>
推导完毕。