线性模型

1. 基本形式

1.1 公式

f(x)=wTx+b

其中, x=(x1;x2;...;xd) xi x 在第i个属性上的取值, w=(w1;w2;...;wd)

1.2 特点

  • 线性模型形式简单、易于建模,有很好的可解释性
  • 功能强大的非线性模型可在线性模型的基础上通过引入层级结构高维映射而得。

2. 线性回归

2.1 二元线性回归

(w,b)=argmin(w,b)i=1m(f(xi)yi)2=argmin(w,b)i=1m(yiwxib)2

其中, w w 的解
基于均方误差最小化来进行模型求解的方法称为最小二乘法
E(w,b)分别对 w b求导,再令式为零即可得 w b的最优解闭式
w=mi=1yi(xix¯)mi=1x2i1m(mi=1xi)2

2.2 多元线性回归

w^=(w;b) X=x11x21xm1x12x22xm2x1dx2dxmd111 y=(y1;y2;;ym)
wTxi+b=Xw^

w^=argminw^(yXw^)T(yXw^)

Ew^=(yXw^)T(yXw^) ,对 w^ 求导得到
Ew^w^=2XT(Xw^y)

令上式为零可得 w^ 最优解的闭式解。

XTX 为满秩矩阵或正定矩阵时, w^=(XTX)1XTy ,令 x^=(xi;1) ,则最终学得的多元线性回归模型为

f(xi^)=xi^T(XTX)1XTy

XTX 不是上述矩阵,如变量数超过样例数,矩阵不满秩,此时可以解出多个 w^ ,它们都能使均方误差最小化,选择哪一个解作为输出,将由学习算法的归纳偏好决定,常见的做法是引入正则化。

2.3对数线性回归(log-linear regression)

lny=wTx+b

2.4广义线性模型

y=g1(wTx+b)

其中, g() 为单调可微函数,称为 联系函数

3. 对数几率回归(logistic regression)

3.1 公式

对于二分类问题,上述 g() 函数可取Sigmoid函数

y=11+e(wTx+b)

类似于对数线性回归式,得
lny1y=wTx+b

其中 y 为样本x作为正例的可能性, 1y 为样本 x <script id="MathJax-Element-92" type="math/tex">x</script>作为反例的可能性

3.2 特点

  • 直接对分布可能性建模,无需事先假设数据分布,避免了假设分布不准确所带来的问题
  • 它不仅预测出“类别”,而是可得到近似概率预测,对于许多利用概率辅助决策的任务很有用
  • 对率函数是任意阶可导的凸函数,有很好的数学性质,现有的许多数值优化算法都可直接用于求取最优解

参考书籍: 《机器学习》 周志华

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值