又名 Logit Regression. 通常用来估计样本属于某一类的概率。
1. 概率估计
【式-1】Logistic Regression模型估计概率(向量形式)
其中,
当得到Logistic模型的概率估计结果之后,便可得到当前样本的类别预测结果:
【式-2】Logistic 回归模型预测
【注意】
由于当 σ(t)<0.5 σ ( t ) < 0.5 的时候 t<0 t < 0 ,反之类似,因此Logistic回归在具体判别的时候并不计算 σ(⋅) σ ( ⋅ ) 的值,而是直接在 θTx>0 θ T x > 0 的时候预测值为 1 1 ,反之为
2. 模型训练与代价函数
1)从直观上来讲:
【式-3】单训练样本下的代价函数
而cost function就是多个单样本的误差求和后平均:
【式-4】Logistic回归的代价函数 (log loss)
2)从概率和最大似然的角度来讲:
y y 的取值(0或1)可以用【式-5】来建模:
【式-5】Logistic Regression 中类别 的概率估计
假设所有的观测样本件都是独立的,有 Likelihood function:
两遍取对数有 log likelihood (再用
1m
1
m
进行归一化):
极大似然估计问题可以建模为:
即为
即为 min J(θ) min J ( θ ) ,与 式-4 形式一致。
在线性回归部分我们提过,线性回归问题一般有两种解决方式:1)利用闭式解求解 2)利用迭代算法求解。不幸的是,Logistic回归问题目前没有闭式解,但由于代价函数是 凸 的,所以能够利用GD或者其他优化算法求解全局最优值:
【式-6】Logistic代价函数对第
j
j
个参数的偏导数
在得到 式-6 中所有参数的偏导项后记得求得梯度向量,进而由 batch GD 求解。
对 Stochastic GD 来说,每次只能利用一个样本进行计算;同样,对 mini-batch GD来说,每次需要用一个 mini-batch 进行计算。