西瓜书——线性模型

线性模型

一元线性回归

  • 模型:线性模型 y = w x + b y=wx+b y=wx+b
  • 策略:损失函数->均方误差最小
  • 算法:求解损失函数,确定最佳模型

多元线性回归

  • 模型:

y = w T x + b y=\bold{w^T}\bold{x}+b y=wTx+b

  • 策略:损失函数->均方误差最小
  • 算法:求解损失函数 w ^ , b ^ \hat{w},\hat{b} w^,b^,确定最佳模型。

求解方法:考虑凸函数的极值点

对数几率回归(可以看作概率)

  • 模型:线性模型,使输出值 y ∈ [ 0 , 1 ] y\in[0,1] y[0,1]

y = 1 1 + e w T x + b y=\frac{1}{1+e^{\bold{w^T}\bold{x}+b}} y=1+ewTx+b1

  • 策略:损失函数->极大似然估计,信息论(上了一学期信息论终于知道有啥用了–hah)
  • 算法:最优化算法(梯度下降、牛顿法…)

二分类线性判别分析

  • 模型:将所有点投影到一条直线上,使得同类样本尽可能聚集,不同类样本尽可能远离。翻译成数学语言:

m a x   ∣ ∣ w T μ 0 − w T μ 1 ∣ ∣ 2 2 m i n   ( w T Σ 0 w + w T Σ 1 w ) max\,||\bold{w^T}\bold{\mu_0}-\bold{w^T}\bold{\mu_1}||_2^2\\ min\,(\bold{w^T}\Sigma_0\bold{w}+\bold{w^T}\Sigma_1\bold{w}) max∣∣wTμ0wTμ122min(wTΣ0w+wTΣ1w)

​ 即同类的方差最小,异类的中心距离最大。

  • 策略:损失函数

m a x   J = ∣ ∣ w T μ 0 − w T μ 1 ∣ ∣ 2 2 w T Σ 0 w + w T Σ 1 w max\,J=\frac{||\bold{w^T}\bold{\mu_0}-\bold{w^T}\bold{\mu_1}||_2^2}{\bold{w^T}\Sigma_0\bold{w}+\bold{w^T}\Sigma_1\bold{w}} maxJ=wTΣ0w+wTΣ1w∣∣wTμ0wTμ122

  • 算法:拉格朗日乘子法求解最佳 w \bold{w} w
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值