Logistic回归与牛顿迭代法
很早之前介绍过《无约束的最优方法》里面介绍了梯度下降法和牛顿迭代法等优化算法。
同时大家对于Logistic回归中的梯度下降法更为熟悉,而牛顿迭代法对数学要求更高,所以这里介绍如何在Logistic回归问题中使用牛顿迭代法。
似然函数与代价函数
似然函数则是
L(ω)=Πmi=1[g(xi)]yi[1−g(xi)]1−yi
然后我们的目标是求出使这一似然函数的值最大的参数,最大似然估计就是求出参数.
对上式两边取log或者ln就可以得到熟悉的代价函数了。
lnL(ω)=∑i=1m[yiln(g(xi))+(1−yi)(1−g(xi))]=∑i=1m(yi·lnexiexi+1+(1−yi)·ln1exi+1)=∑i=1m(xiyi−ln(1+exi))
其中 xi=ω0+ω1xi1+ω2xi2+...+ωnxin 。现在求向量 ω=(ω0,ω1,ω2,...,ωn) 使得 L(ω)
偏导函数为
∂ln(L(ω))∂