机器学习--近邻成分分析(NCA)算法 和 度量学习

1、近邻成分分析(NCA)算法

以上内容转载自:http://blog.csdn.net/chlele0105/article/details/13006443

2、度量学习

在机器学习中,对高维数据进行降维的主要目的是找到一个合适的低维空间,在该空间中进行学习能比原始空间性能更好。每个空间对应了在样本属性上定义的一个距离度量,而寻找合适的空间,本质上就是寻找一个合适的距离度量。度量学习(metric learning)的基本动机就是去学习一个合适的距离度量。

降维的核心在在于寻找合适空间,而合适空间的定义就是距离度量,所以学习合适的距离度量就是度量学习的目的。要对距离度量进行学习,要有一个便于学习的距离度量表达形式。

 

其中M称为度量矩阵,度量学习就是对M进行学习。为保持距离非负且对称,M须是半正定对称矩阵,即必有正交基P使得M能写为M=PPT。

至此,已构建了学习的对象是M这个度量矩阵,接下来就是给学习设定一个目标从而求得M。假定是希望提高近邻分类器的性能,则可将M直接嵌入到近邻分类器的评价指标中去,通过优化该性能指标相应地求得M,以近邻成分分析(Neighbourhood Component Analysis,NCA)进行讨论。

近邻分类器判别时通常采用多数投票法,领域中的每个样本投1票,领域外的样本投0票。将其替换为概率投票法,对任意样本xj,它对xi分类结果影响的概率为:

转载于:https://www.cnblogs.com/bfshm/p/7719670.html

  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
基于度量的小样本学习是一种解决小样本问题的方法,它通过度量样本之间的相似性来进行分类。在传统的机器学习中,模型通常需要大量的标记样本进行训练,才能取得良好的性能。然而,在现实世界中,标记样本的获取通常是困难和昂贵的。 因此,研究者们开始关注如何在小样本情况下构建有效的分类器。基于度量的小样本学习方法通过计算样本之间的距离或相似度来进行分类。它基于一个假设,即相似的样本在特征空间中更有可能属于同一类。 近年来,基于度量的小样本学习得到了广泛的关注和研究。其中一种常见的方法是孪生网络(Siamese Network),它通过将两个输入样本映射到同一个特征空间,并通过比较它们的距离来进行分类。另外还有一些其他的方法,如三元组损失函数、NCA(Neighborhood Component Analysis)等。 在实际应用中,基于度量的小样本学习已经取得了一些令人鼓舞的结果。例如,在人脸识别领域,通过学习一个好的特征表示,可以在仅有几个样本的情况下实现较高的识别准确率。此外,基于度量的小样本学习方法还被应用于图像分类、目标检测等领域。 尽管基于度量的小样本学习在一些场景下取得了良好的效果,但仍然存在一些挑战和问题。例如,如何选择合适的度量函数、如何解决类别不平衡问题等。因此,这个领域仍然有很多需要深入研究和探索的地方。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值