逻辑回归知识点
基础知识
- 广义线性模型
- sigmoid函数,求导
f ( x ) = 1 1 + e − z f(x) = \frac {1} {1 + e^{-z}} f(x)=1+e−z1 f ( x ) ′ = f ( x ) ∗ ( 1 − f ( x ) ) f(x)^{'} = f(x) * (1 - f(x)) f(x)′=f(x)∗(1−f(x)) - 利用线性回归的预测值去逼近真实类别的对数几率
- 利用极大似然使得每个样本属于其真实类别的概率最大化
损失函数和梯度下降
J ( θ ) = − 1 m ∗ ∑ [ y i ∗ ln ( h θ ( x i ) ) + ( 1 − y i ) ln ( 1 − h θ ( x i ) ) ] J(\theta) = -\frac{1}{m} * \sum[y_i * \ln(h_\theta(x_i)) + (1-y_i)\ln(1-h_\theta(x_i))] J(θ)=−m1∗∑[yi∗ln(hθ(xi))+(1−yi)ln(1−hθ(xi))] ∂ J ( θ ) ∂ θ = − 1 m ∑ [ y i − h θ ( x i ) ] ∗ x i \frac{\partial J(\theta)}{\partial \theta}=-\frac{1}{m}\sum[y_i - h_\theta(x_i)] * x_i ∂θ∂J(θ)=−m1∑[yi−hθ(xi)]∗xi
梯度计算与 h θ ( x i ) h_\theta(x_i) hθ(xi)的导数无关,只与 h θ ( x i ) h_\theta(x_i) hθ(xi) 和 x i x_i xi有关,因此不需要额外计算,参数更新速度快。