1.逻辑回归
逻辑回归(Logistic Regression)是一种分类算法,该模型的输出变量范围在0和1之间。
逻辑回归的假设函数为
h
θ
=
g
(
θ
T
X
)
h_\theta = g(\theta^TX)
hθ=g(θTX),g表示逻辑函数(Logistic Function)是一个常用的S型函数(Sigmoid Function),公式为
g
(
z
)
=
1
1
+
e
−
z
g(z) = {1\over 1+e^{-z}}
g(z)=1+e−z1,函数图像为
h
θ
(
x
)
h_\theta(x)
hθ(x)作用为对给定的输入变量x,根据选择的参数计算变量输出为1的可能性,即
h
θ
(
x
)
=
P
(
y
=
1
∣
x
;
θ
)
h_\theta(x)=P(y=1|x;\theta)
hθ(x)=P(y=1∣x;θ)
在逻辑回归中,当 h θ ( x ) > = 0.5 h_\theta(x)>=0.5 hθ(x)>=0.5,预测 y = 1;当 h θ ( x ) < 0.5 h_\theta(x)<0.5 hθ(x)<0.5,预测 y = 0
根据图像可知,z = 0时 g = 0.5 ; z > 0时 g > 0.5 ;z < 0 时 g < 0.5
又因为 z = θ T X z = \theta^TX z=θTX,所以参数 θ \theta θ决定了判定边界,不是数据集决定。
代 价 函 数 : J ( θ ) = 1 m ∑ i = 1 m C o s t ( h θ ( x ( i ) ) , y ( i ) ) 代价函数:J(\theta)={1\over m }\sum_{i=1}^m{Cost(h_{\theta}(x^{(i)}),y^{(i)})} 代价函数:J(θ)=m1i=1∑mCost(hθ(x(i)),y(i)),其中 C o s t ( h θ ( x ( i ) ) , y ( i ) ) = − y × log ( h θ ( x ) ) − ( 1 − y ) × log ( 1 − h θ ( x ) ) Cost(h_{\theta}(x^{(i)}),y^{(i)})=-y\times\log(h_\theta(x))-(1-y)\times\log(1-h_\theta(x)) Cost(hθ(x(i)),y(i))=−y×log(hθ(x))−(1−y)×log(1−hθ(x))
但是令人震惊的是对于代价函数的求导结果竟然和多变量线性回归是一样的公式,因此更新参数的公式也是一样的。(
h
θ
(
x
)
内
涵
不
一
样
h_\theta(x)内涵不一样
hθ(x)内涵不一样)
θ
j
=
θ
j
−
α
∂
∂
θ
j
J
(
θ
)
=
1
m
∑
i
=
1
m
(
h
θ
(
x
(
i
)
)
−
y
(
i
)
)
x
j
(
i
)
\theta_j = \theta_j-\alpha\frac{\partial }{\partial \theta_j}J(\theta)= {1\over m}{\sum_{i=1}^m}{(h_\theta(x^{(i)})-y^{(i)})x^{(i)}_j}
θj=θj−α∂θj∂J(θ)=m1i=1∑m(hθ(x(i))−y(i))xj(i)
具体推导过程如图:
2.正则化
正则化目的:改善或者减少过度拟合的问题。保留所有特征,但是减少参数的大小。
正则化基本方法:减少参数
θ
\theta
θ的大小,对一些参数加入惩罚,给参数值加倍来使得到的对应的参数值减小。但是不包括
θ
0
\theta_0
θ0
2.1正则化线性回归
给代价函数每一个样本都加上 λ 2 m ∑ j = 1 n θ j 2 , λ 为 正 则 化 系 数 {\lambda\over 2m}{\sum_{j=1}^n}\theta_j^2,\lambda 为正则化系数 2mλ∑j=1nθj2,λ为正则化系数