逻辑回归(Logistic Regression,简称LR)是最常见的一种分类模型。
这里简单介绍下其推导过程。
设有训练数据 (x1,y1),(x2,y2),...,,(xm,ym)
其中
xi
为特征(feature),是一个n维向量
(xi1,xi2,...,xin)
yi
为类别(label),且
yi∈{0,1}
逻辑回归的分类模型为
h(xi)=sigmoid(θTxi)
式中的 θ 为LR的参数,是一个n维向量
且 h(xi) 的意思为 xi 的类别为1的概率
于是可以得到LR的似然函数为
L(θ)=∏i=1mp(yi|xi,θ)=∏i=1m(h(xi))yi(1−h(xi))1−yi
优化目标是得到使得似然函数最大化的
θ
值
由于对
L(θ)
最大化等价于对
logL(θ)
的最大化
新的优化目标
logL(θ)=∑i=1myilog(h(xi))+(1−yi)log(1−h(xi))
对
logL(θ)
的最大化等价于对
−logL(θ)
的最小化
因此有新的优化目标,也就是常说的损失函数(cost function)了。
cost(θ)=∑i=1m−yilog(h(xi))−(1−yi)log(1−h(xi))
对上式的最优化常用的算法有梯度下降法,牛顿法,以及各种拟牛顿法。