机器学习笔记 - 线性模型与线形回归

给定由 d 个属性描述的样本x=(x1,x2,...,xd), 线性模型(linear model)试图学习一个通过属性的线性组合来预测的函数, 即

f(x)=w1x1+w2x2+...+wdxd+b

一般用向量形式写成
f(x)=wTx+b

其中, w=(w1,w2,...,wd) , wb 学得之后, 模型就得以确定.

给定数据集

D={(x1,y1),(x2,y2),...,(xm,ym)}
,
其中 xi=(xi1,xi2,...,xid),yiR , 线性回归(Linear Regression)试图学习一个线性模型去预测实值输出标记.

我们先考虑最简单的情形, 即 d=1 , 则 D={(xi,yi)mi=1},,xiR . 线性回归试图习得

f(xi)=wxi+b,使f(xi)yi

衡量 f(x) y 的差别, 最常用的度量方法是均方误差。 我们可以试图让均方误差最小
(w,b)=argmini=1m(f(xi)yi)2=argmini=1m(f(xi)wxib)2

基于最小均方误差来进行模型求解的方法称为最小二乘法。


E(w,b)=argmini=1m(f(xi)wxib)2


E(w,b)w=2(wi=1mx2ii=1m(yib)xi)

E(w,b)b=2(mbi=1m(yiwxi))

然后令上两式为零, 可得

w=mi=1yi(xiavg(x))mi=1x2i1m(mi=1xi)2

b=1mi=1m(yiwxi)

推广到更一般的情况, 数据集 D 的样本由d个属性,

X=x11x21.xm1x12x22.xm2..........x1dx2d.xmd1111


w=argmin(yXw)T(yXw)

Ew=(yXw)T(yXw)
w 求导可得
E(w)w=2XT(Xwy)

XTX 为满秩矩阵或正定矩阵, 令上式为零, 可得
w=(XTX)1XTy

最终的回归模型为
f(xi)=xTi(XTX)1XTy

Reference

  1. https://en.wikipedia.org/wiki/Linear_least_squares_(mathematics)
  2. 机器学习 - 周志华 清华大学出版社
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值