1.一元线性回归
输入xi yi
预测值 f(xi) = wxi + b 使f(xi) 接近yi
(
w
,
b
)
=
a
r
g
m
i
n
∑
i
=
1
n
(
f
(
x
i
)
−
y
i
)
2
(w, b) = argmin \sum_{i = 1}^n (f(xi) - yi)^2
(w,b)=argmini=1∑n(f(xi)−yi)2
注:基于均方误差最小化来进行模型求解成为最小二乘法
上式也可以使用误差正态分布来推算出公式
那对上式分别对w b求导,导数为零极为极值点。此时就可以求出w,b
α
E
/
α
w
=
2
(
w
∑
i
=
1
n
(
x
i
)
2
−
∑
i
=
1
n
(
y
i
−
b
)
x
i
)
\alpha E/\alpha w = 2(w\sum_{i = 1}^n (xi)^2 - \sum_{i = 1}^n (yi - b)xi)
αE/αw=2(wi=1∑n(xi)2−i=1∑n(yi−b)xi)
α
E
/
α
b
=
2
(
m
b
−
∑
i
=
1
n
(
y
i
−
w
x
i
)
)
\alpha E/\alpha b = 2(mb - \sum_{i = 1}^n (yi - wxi))
αE/αb=2(mb−i=1∑n(yi−wxi))
令式都等于零,连立方程即可求出w, b
2.多元线性回归
基本原理和一元线性一致,
样本是由d个属性描述。即一元线性回归xi表示一个样本。而多元就是xi表示的是一个向量。
f
(
x
i
)
=
w
T
x
i
+
b
f(xi) = w^Txi + b
f(xi)=wTxi+b
为了方便计算,将b放入w中 也就是w’ = (w;b) 相应的xi扩充一个1的列
那可以得到:
w
′
=
a
r
g
m
i
n
(
y
−
X
w
)
T
(
y
−
X
w
)
w' = argmin(y - Xw)^T(y - Xw)
w′=argmin(y−Xw)T(y−Xw)
对w进行求导得到:
α
E
/
α
w
=
2
X
T
(
X
w
−
y
)
\alpha E / \alpha w = 2X^T(Xw - y)
αE/αw=2XT(Xw−y)
如
X
T
X
X^TX
XTX满秩,则可以得到:
w
=
(
X
T
X
)
−
1
(
X
T
y
)
w = (X^TX)^{-1}(X^Ty)
w=(XTX)−1(XTy)
如果不是满秩,因为变量和样例数往往不是相同的。通常引入正则化。
3.逻辑回归
逻辑回归其实可以理解为分类。
sigmod函数:
g
(
x
)
=
1
/
(
1
+
e
−
z
)
g(x) = 1 / (1 + e^{-z})
g(x)=1/(1+e−z)
输入值映射到[-1, 1]
分类任务:
整合之后(而分类情况 y只有1和0两种情况):
也就是求取似然函数:
由于惩罚求起来比较困难,转为对数似然成为加法:
由于需要求最大值,故转换为梯度下降任务 J = -(1/m)*l
对该式子求导得到导数:
参数更新: