线性模型
一元线性回归
- 模型:线性模型 y = w x + b y=wx+b y=wx+b
- 策略:损失函数->均方误差最小
- 算法:求解损失函数,确定最佳模型
多元线性回归
- 模型:
y = w T x + b y=\bold{w^T}\bold{x}+b y=wTx+b
- 策略:损失函数->均方误差最小
- 算法:求解损失函数 w ^ , b ^ \hat{w},\hat{b} w^,b^,确定最佳模型。
求解方法:考虑凸函数的极值点
对数几率回归(可以看作概率)
- 模型:线性模型,使输出值 y ∈ [ 0 , 1 ] y\in[0,1] y∈[0,1]
y = 1 1 + e w T x + b y=\frac{1}{1+e^{\bold{w^T}\bold{x}+b}} y=1+ewTx+b1
- 策略:损失函数->极大似然估计,信息论(上了一学期信息论终于知道有啥用了–hah)
- 算法:最优化算法(梯度下降、牛顿法…)
二分类线性判别分析
- 模型:将所有点投影到一条直线上,使得同类样本尽可能聚集,不同类样本尽可能远离。翻译成数学语言:
m a x ∣ ∣ w T μ 0 − w T μ 1 ∣ ∣ 2 2 m i n ( w T Σ 0 w + w T Σ 1 w ) max\,||\bold{w^T}\bold{\mu_0}-\bold{w^T}\bold{\mu_1}||_2^2\\ min\,(\bold{w^T}\Sigma_0\bold{w}+\bold{w^T}\Sigma_1\bold{w}) max∣∣wTμ0−wTμ1∣∣22min(wTΣ0w+wTΣ1w)
即同类的方差最小,异类的中心距离最大。
- 策略:损失函数
m a x J = ∣ ∣ w T μ 0 − w T μ 1 ∣ ∣ 2 2 w T Σ 0 w + w T Σ 1 w max\,J=\frac{||\bold{w^T}\bold{\mu_0}-\bold{w^T}\bold{\mu_1}||_2^2}{\bold{w^T}\Sigma_0\bold{w}+\bold{w^T}\Sigma_1\bold{w}} maxJ=wTΣ0w+wTΣ1w∣∣wTμ0−wTμ1∣∣22
- 算法:拉格朗日乘子法求解最佳 w \bold{w} w