机器学习Day 03

线性模型

基本形式

给定一个由 dx=(x1,x2,...,xd) ,其中 xixi ,线性模型(linear model)试图学得一个通过属性的现实组合来进行预测的函数,即

f(x)=w1x1+w2x2+...+wdxd+b

一般用向量形式写成
f(x)=wTx+b

其中 w=(w1,w2,...,wd)wb 由于 w 直观表达了各属性在预测中的重要性,因此线性模型有很好的可解释性(comprehensibility)。
许多功更为强大的非线性模型(nonlinear mobel)可在线性模型的基础上通过引入层级结构或高维映射而得。

线性回归

线性回归(linear regression)试图学得一个线性模型以尽可能准确地预测实值输出标记。
对离散属性,若属性值间存在序(order)关系,可通过连续化将其转化为连续值;若属性值间不存在序关系,假定有k个属性值,则通常转化为 k 维向量,但会不恰当地引入序关系,对后续处理造成误导。
线性回归试图学得

f(xi)=wTxi+b使f(xi)yi

显然关键在于如何衡量 f(x)y 均方差是回归任务中最常用的性能度量,因此我们可以试图让均方误差(square loss)最小化,即
(w,b)=argmax(w,b)i=1m(f(xi)yi)2=argmax(w,b)i=1m(yiwx1b)2

均方误差有很好的几何意义,它对应了常用的欧几里德距离(Euclidean distance)。基于均方误差最小化来进行模型求解的方法称为最小二乘法(least square method)。在线性回归中,最小二乘法就是试图找到一条直线,使所有样本到直线上的欧式距离之和最小。
求解 wb使E(w,b)=mi=1(yiwx1b)2 最小化的过程,称为线性回归模型的最小二乘参数估计(parameter estimation)。 Ewb ,解
E(w,b)w=2wi=1mx2ii=1m(yib)xi=0

E(w,b)b=2(mbi=1m(yiwxi))=0


w=mi=1yi(xix¯)mi=1x2i1m(mi=1xi)2,x¯=1mi=1mxi

b=1mi=1m(yiwxi)

这里 E(w,b) 是关于 w b的凸函数,当关于 w b的导数均为零时,得到 w b的最优解。
对于区间 [a,b] 上定义的函数 f ,若它对区间中任意两点x1,x1均有 f(x1+x22)f(x1)+f(x2)2 ,则称 f 为区间[a,b]的凸函数。对实数集上的函数,可以通过求二阶导数来判断:若二阶导数在区间上非负,则称凸函数;若二阶导数在区间上恒大于零,则称严格凸函数(与同济大学出版的高等数学教材中凹凸函数定义正好相反)。
当样本由 d 个属性描述,此时试图学得
f(xi)=wTxi+b使f(xi)yi

称为多元线性回归(multivariate linear regression)。
类似的,同样可以利用最小二乘法来对 wb 进行估计。我们把 wb 吸入向量形式 wˆ=(w;b) 把数据集 D 表示为一个m×(d+1)大小的矩阵 X ,即
X=x11x21xm1x12x22xm2x1dx2dxmd111=xT1xT2xTm111

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值