机器学习入门-吃瓜第三章--线性判别分析

目录

3.4 线性判别分析

一般使用流程

算法原理

 求解w


接上节机器学习入门-吃瓜第三章--对数几率回归

3.4 线性判别分析

一般使用流程

线性判别分析的一般使用流程如下:首先在训练集上学得模型,由向量内积的几何意义可知,y 可以看作是x在w上的投影,因此在训练集上学得的模型能够保证训练集中的同类样本在w上的投影y很相近,而异类样本在w上的投影y很疏远。然后对于新的测试样本x_{i},将其代入模型得到它在w上的投影y_{i},然后判别这个投影y_{i}与哪一类投影更近,则将其判为该类。

注意:线性判别分析是一种监督降维方法,即降维过程中需要用到样本类别标记信息。

算法原理

线性判别分析(Linear Discriminant Analysis,简称LDA)是一种经典的线性学习方法,也叫“Fisher判别分析”。
LDA的思想:给定训练样例集,设法将样例投影到一条直线上,使得同类样例的投影点尽可能接近

、异类样例的投影点尽可能远离;在对新样本进行分类时,将其投影到同样的这条直线上,再根据投影点的位置来确定新样本的类别。

LDA的二维示意图。“+”、“-”分别代表正例和反例,椭圆表示数据簇的外轮廓,虚线表示投影,红色实心圆和实心三角形分别表示两类样本投影后的中心点 。

针对同类样例的投影点尽可能接近,可以让同类样例的协方差尽可能小,即w^{T}\sum _{0}w+w^{T}\sum _{1}w尽可能小;
针对异类样例的投影点尽可能远,可以让类中心之间的距离尽可能大,即\left \| w^{T} u_{0}-w^{T} u_{1}\right \|_{2}^{2}尽可能大。

\left \| w^{T} u_{0}-w^{T} u_{1}\right \|_{2}^{2}右下角的“2”表示求“2 范数”,向量的2 范数即为模,右上角的“2”
表示求平方数。

同时考虑以上二者,则得欲最大化目标

推导过程:

定义:类内散度矩阵

定义:类间散度矩阵

结合以上类内散度矩阵和类间散度矩阵,得

LDA的最大化目标,S_{b}S_{w}的广义瑞利商。

 求解w

w^{T}S_{w}w=1,则J等价于

由此可定义拉格朗日函数,

由于最终要求解的w不关心其大小,只关心其方向,所以其大小可以任意取值。又因为u_{0}u_{1} 的大小是固定的,所以γ的大小只受w的大小影响,因此可以通过调整w的大小使得γ = λ,因此,此时γ/λ = 1,求解出w

参考资料与文献

1、周志华. 机器学习[M]. 北京:清华大学出版社,2016.
2、谢文睿 秦州 贾彬彬 . 机器学习公式详解 第 2 版[M]. 人民邮电出版社,2023

  • 3
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值