一、一元线性回归
1. 机器学习三要素
1). 模型:根据具体问题,确定假设空间
2). 策略:根据评价标准,确定选取最优模型的策略(通常会产出一个“损失函数”)
3). 算法:求解损失函数,确定最优模型
2. 算法原理
1) 将收集到的数据,根据经验和数据形态,建直线模型,f(x)=wx+b,也可以写成y=wx+b
2) 求这样一条直线,确定w,b
均方误差亦称平方损失(square loss),是回归任务中最常用的性能度量,对应了常用的欧氏距离。基于均方误差最小化进行模型求解的方法称为最小二乘法。求解w和b使
最小化的过程,称为线性回归模型的最小二乘“参数估计”(parameter estimation)。分别对w,b求导,得到
,
.
令以上两式为零,可得到w和b最优解的闭式(closed-form)解
,
.
其中
为x的均值。
2. 极大似然估计概率分布的参数值
1)方法
对于离散型(连续型)随机变量X,假设其概率质量函数为(概率密度函数
),其中
为待估计的参数值。现有
是来自X的n个同分布的样本,它们的联合概率为
其中是已知量,
是未知量,
为样本的似然函数。极大似然估计的直观想法是使得观测样本出现概率最大的分布就是待求分布,也即使得联合概率(似然函数)
取到最大值的
即为
的估计值。
2)示例步骤
极大似然估计其观测样本服从某个正态分布的
:
第一步: 写出随机变量X的概率密度函数
第二步: 写出似然函数
第三步: 求出使得取得最大值的
第四步: 用 化简
中的连乘项
3) 推导一元线性回归
对于线性回归来说,也可以假设其为以下模型
其中为不受控制的随机误差,通常假设其服从均值为0的正态分布
,所以
的概率密度函数为
若将用
等价替换可得:
上式显然可以看作
用极大似然估计w和b的值,似然函数为
其中m,均为常数,所以最大化
等价于最小化
也即
求解w和b,其本质上是一个多元函数求最值的问题,更具体的是凸函数求最值的问题。
推导思路:
1.证明
是关于w和b的凸函数,
2.用凸函数求最值的思路求解w和b。
二、 多元线性回归
1. 由最小二乘法导出损失函数![\tiny E_{\hat{w}}](https://latex.csdn.net/eq?%5Ctiny%20E_%7B%5Chat%7Bw%7D%7D)
相比一元线性回归,多元线性回归无非是加了一些特征。所以它的x变成了向量,权重w自然也变成了一个向量。
写成以上的形式,可以套用最小二乘法了。
由最小二乘法可得
2. 求解![\tiny \hat{w}](https://latex.csdn.net/eq?%5Ctiny%20%5Chat%7Bw%7D)
第一步: 向量化得到损失函数
第二步: 求里面的未知参数,也就是求
求解仍然是一个多元函数求最值点的问题,同样也是凸函数求最值的问题。
推导思路:
1). 证明
是关于的凸函数,
2). 使用凸函数求最值的思路求解出。
三、 对数几率回归
对数几率函数是一种"Sigmoid函数",它将z值转化为一个接近0或1的y值,并且其输出值在z=0附近变化很陡。将对数几率函数作为得到
以上式子实际上是在用线性回归模型的预测结果去逼近真实标记的对数几率,因此,其对应的模型称为对数几率回归(logisticregression,亦称logit regression)。
四、 二分类线性判别分析
线性判别分析(Linear Discriminant Analysis,简称LDA)是一种经典的线性学习方法。LDA的思想非常朴素: 给定训练集样例,设法将样例投影到一条直线上,使得同类样例的投影点尽可能接近、异类样例的投影点尽可能远离;在对新样本进行分类时,将其投影到同样的这条直线上,再根据投影点的位置来确定新样本的类别。
欲使同类样例的投影点尽可能接近,可以让同类样例投影点的协方差尽可能小,即和
尽可能小;而欲使异类样例的投影点尽可能远离,可以让类中心之间的距离尽可能大,即
尽可能大。同时考虑二者,则可得到最大化目标:
定义“类内散度矩阵”以及“类间散度矩阵”
,则
这就是LDA最大化的目标,即与
的广义瑞利商。若w是一个解,则对于任意常数
,
也是所求解。