最小距离分类法

      最小距离分类法介绍

作者:liangdas

出处:简单点儿,通俗点儿,机器学习 http://blog.csdn.NET/liangdas/article/details/17039583

前言:

最小距离分类法是分类器里面最基本的一种分类方法,它是通过求出未知类别向量X到事先已知的各类别(如A,B,C等等)中心向量的距离D,然后将待分类的向量X归结为这些距离中最小的那一类的分类方法。

基本原理:

   在一个n维空间中,最小距离分类法首先计算每一个已知类别(用向量表示是)的各个维度的均值,形成一个均值 ,用向量表示)(A为类别的名称, 是类别A的样本特征集合,是类别A的第1维特征集合,是第一维特征集合的均值,n为总的特征维数),同理,计算另一个类别(用向量表示是)的均值,用向量表示,那么对于一个待分类的样本特征向量(用向量表示是),怎么判断它是属于类别,还是呢?我们只需要分别计算的距离,以欧式距离为例,距离的计算公式如下:

 

 

然后找中的最小值,如果前者最小,那么X属于A类,如果后者小,那么X属于B类。   


分类器的距离:

   目前有多种不同的计算分类距离的方法,在上面的距离计算公式中,是我们最常见的计算距离的方法,欧氏距离。另外也有其它很多的距离公式,如欧氏距离,曼哈顿距离,闵可夫斯基距离,切比雪夫距离,标准化欧式距离等等,这里不一一做介绍,只对下面的三个距离做重点介绍一下,以是我们能够理解不同距离,对应不同的意义:

1. 欧氏距离(EuclideanDistance)

欧氏距离是最易于理解的一种距离计算方法,源自欧氏空间中两点间的距离公式。

(1)二维平面上两点a(x1,y1)与b(x2,y2)间的欧氏距离:

(2)三维空间两点a(x1,y1,z1)与b(x2,y2,z2)间的欧氏距离:

(3)两个n维向量a(x11,x12,…,x1n)与 b(x21,x22,…,x2n)间的欧氏距离:

2. 曼哈顿距离(ManhattanDistance)

      从名字就可以猜出这种距离的计算方法了。想象你在曼哈顿要从一个十字路口开车到另外一个十字路口,驾驶距离是两点间的直线距离吗?显然不是,除非你能穿越大楼。实际驾驶距离就是这个“曼哈顿距离”。而这也是曼哈顿距离名称的来源, 曼哈顿距离也称为城市街区距离(City Blockdistance)

(1)二维平面两点a(x1,y1)b(x2,y2)间的曼哈顿距离

(2)两个n维向量a(x11,x12,…,x1n)与 b(x21,x22,…,x2n)间的曼哈顿距离

3. 闵可夫斯基距离(MinkowskiDistance)

闵氏距离不是一种距离,而是一组距离的定义。

(1) 闵氏距离的定义

两个n维变量a(x11,x12,…,x1n)与 b(x21,x22,…,x2n)间的闵可夫斯基距离定义为:

其中p是一个变参数。

当p=1时,就是曼哈顿距离

当p=2时,就是欧氏距离

当p→∞时,就是切比雪夫距离

p取不同的值,公式也不一样,所以随着参数p的不同,闵氏距离可以表示一类的距离。

为了更一步理解这些距离的差别,我们做下面一个实验:选取一个点作为中心点,用上述的三个距离公式分别计算周围的每一个点到这个中心点的距离,将距离相同的点用同一种颜色表示,那么得到下面的三个图:

 

                          

 图1.欧氏距离                      图2.曼哈顿距离                   图3.闵可夫斯基距离(p=10)

从三个图中可以看出,三个不同的距离公式,对中心的逼近方式也不一样:欧式距离是以同心圆的方式向中心靠近;曼哈顿距离是以倾斜45度角的正方形的方式向中心靠近;闵可夫斯基距离(p=10)则是以四个角度光滑的四边形的方式向中心靠近。

现在我们继续做下面一个分类实验:在维数为2维的平面空间中(只有横轴方向x和纵轴方向y两维空间),有一块128*128的区域,在这个区域中有已知的A(110, 18),B(30, 18),C(110, 88),D(90, 58),E(25, 123)五个点,以这五个点为5个类别的中心,我们剩下要做的事:将这个128*128的区域里面的所有的点,用上面的三个不同的距离计算方法,对它们进行最小距离分类,最后得到的分类结结果图如下:

                

   图4.欧氏距离分类                    图5.曼哈顿距离分类             图6.闵可夫斯基距离(p=10)分类

 

图中,每一个类别中心在图中以字母标示出了,不同的颜色表示的是不同的类别,同一种类别在一起组成一个多边形,多边形内的点是到其类别中心距离最近的点,多边形边界上的点是临界点,它们到相邻的两个类别中心的距离相等。图4.的中的多边形其实就是我们通常所说的泰森多边形。从三个图中可以看出来,不同距离算法,类别中心对周围点的作用域是不相同的。

最小距离分类的步骤:

     下面我们来谈谈最小距离分类法的一般步骤,说是最小距离分类器的步骤,其实是我们做监督分类基本的几个步骤。

(1)确定类别m,并提取每一类所对应的已知的样本。

(2)从样本中提取出一些可以作为区分不同类别的特性,也就是我们通常所说的特征提取,如果提取出了n个不同的特性,那么我们就叫它n维空间,特征提取对分类的精度有重大的影响。

(3)分别计算每一个类别的样本所对应的特征,每一类的每一维都有特征集合,通过集合,可以计算出一个均值,也就是特征中心。

(4)通常为了消除不同特征因为量纲不同的影响,我们对每一维的特征,需要做一个归一化,或者是放缩到(-1,1)等区间,使其去量纲化。

(5)利用选取的距离准则,对待分类的本进行判定。

最小距离分类器的优点和缺点:

   最小距离分类法原理简单,容易理解,计算速度快,但是因为其只考虑每一类样本的均值,而不用管类别内部的方差(每一类样本的分布),也不用考虑类别之间的协方差(类别和类别之间的相关关系),所以分类精度不高,因此,一般不用它作为我们分类对精度有高要求的分类,但它可以在快速浏览分类概况中使用。

参考资料:

K-均值算法:http://blog.jobbole.com/23157/

机器学习中的相似性度量:http://www.cnblogs.com/heaad/archive/2011/03/08/1977733.html

百度百科——Erdas骤:http://wenku.baidu.com/view/23efbdcda1c7aa00b52acb96.html


ps:使用或者转载请标明出处,禁止以商业为目的的使用。

如果有需要word版,或者是pdf版的,请与我联系,QQ:358536026

  • 3
    点赞
  • 23
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值