笔记:Dissimilarity-Based Sparse Subset Selection

Elhamifar, E., Sapiro, G., & Sastry, S. S. (2016). Dissimilarity-based sparse subset selection. IEEE Transactions on Pattern Analysis and Machine Intelligence, 38(11), 2182-2197.
本文是这篇 PAMI 期刊论文的笔记,主要是对文中的理论方法进行展开详解。本人学术水平有限,文中如有错误之处,敬请指正。

摘要: 从一个大型的数据集或模板中找出有信息量的子集是一个重要的问题,对于许多的计算机视觉、推荐系统、生物/健康信息、和图像和自然语言处理的问题中。给予一对原集和目标集的元素之间的不相似度,考虑一个问题:从原集中找到一个子集,称为表示(representatives)或样例(exemplars),使得其可以有效地描述目标集。此文构建这个问题为一个行稀疏约束的迹最小化问题。由于该问题是一般的 NP-hard,需要考虑一个凸松弛代替。最优解找到一个表示,以及目标集中的每一个元素对原集中每一个的元素的赋值(权重)。也就是获得一个聚类。并分析了优化问题的解作为约束参数的解。此文并说明了当两个数据集被一起划分为多个组之后,此文的算法找到来自所有组的表示,并对数据集进行了聚类。另外,此文的算法可以有效地处理异常点。此文的算法可以处理任意的不相似度,可以是非对称的或违背了三角不等式。为了有效地实现该算法, 此文考虑了 Alternating Direction Method of Multipliers (ADMM) 交替乘子法,使得问题为平方级的复杂度。并且 ADMM 使得问题可以被并行化,更减少了计算的时间。最终,通过真实的数据集,此文的算法提升了最好的结果在两个问题中:场景分类(用图像表示)和时间序列建模和分割(用模型表示)。

1 简介

2 Dissimilarity-Based Sparse Subset Selection (DS3)

2.1 问题陈述

假设有一个原集 X={ x1,,xM} 和一个目标集 Y={ y1,,yN} ,分别包含 M N 个元素,已经得到了两个数据集之间每一对元素的的不相似度 { dij}j=1,,Ni=1,,M 。每一个 dij 表示一个 xi 能表示 yj 的程度,也就是 dij 的值越小, xi 能越好地表示 yj 。此文构建一个不相似度的矩阵

DdT1dTM=d11dM1d12dM2d1NdMNRM×N,(1)

其中 diRN 表示 D 的第 i 行。给定一个矩阵 D ,目标是找到一个子集 X 可以很好地表示集合 Y 中的元素,如图 2 所示。

这里写图片描述

对比一些当前的最先进的算法 1 2 3,此文不限制 X Y 有同类的元素或相等。比如, X 可以为一个模型集合, Y 可以为数据集合,在这样的情况下,此文选择一系列模板,使得很好地表示数据集,如图 3 所示。

这里写图片描述

这里的不相似度,可以表示为用模板表示数据的编码误差。另一方面, X,Y 可以包含同类的元素或相等。比如, X,Y 对应模板的集合,于是此文的目标是选择有表达能力的模板。不相似度的例子是动态系统之间的距离,和概率分布之间的 KL 散度。而且,当 X,Y 表示数据点,此文的目标是选择有表达性的数据点,如图 4 所示。比如数据点之间的汉明 (Hamming) 距离,欧几里得 (Euclidean) 距离,和测地距离。

这里写图片描述

2.2 不相似度

注意的是此文可以关注于相似度 { sij} 和不相似度 { dij} ,仅通过设置 dij=sij 。比如 当 X=Y ,可以设置 dij=Kij ,其中 K 表示一个数据集的核矩阵。当矩阵 X,Y 的元素的合适的向量空间的表示给定之后,可以使用预定义的函数计算不相似度,比如编码误差 dij=||xiAyj|| 对于一个适合的矩阵 A ,欧几里得距离 dij=||xiyj||2 ,或截断二次距离 dij=min{ β,||xiyj||22} ,其中 β 是一个常数。然而,这里可以计算(不)相似度而不通过数据的向量空间表示,比如社交网络图中的一些边,图像之间的按成对元素的主观比较,或句子之间的通过字符串核的比较。最终,可以得到(不)相似度,比如使用度量学习方法 4 5

2.3 DS3 算法

给定 D ,目标是选择一个子集 X ,称为表示(representatives)或样例(exemplars),使得其可以有效地表示 Y 。因此,考虑一个优化问题于未知的变量 zij 关联着不相似度 dij ,其所有的变量的矩阵定义如下

ZzT1zTM=z11zM1z12zM2z1NzMNRM×N,(2)

其中 ziRN Z 的第 i 行。这里将 zij{0,1} 解释为 xi 表示 yj 的指示值,如果 xi yj 的表示,其值为 1 。为了确保每一个 yj 能被一个 xi 表示,必须满足 Ni=1zij=1

2.3.1 Simultaneous Sparse Recovery-Based Optimization

为了选择一部分的 X 的元素,根据不相似度,能很好地编码 Y ,此文提出了基于 Z 行稀疏约束的迹最小化问题(row-sparsity regularized trace minimization),实现两个目标。首先, Y 能够被很好地编码。如果 xi 被用于表示 yj ,其表示的代价为 dijzij{ 0,dij} 。于是,使用 X 表示 yj 的代价是 Mi=1dijzij ,并且,用 X 编码整个矩阵 Y 的代价为 Nj=1Mi=1dijzij 。第二,希望能使用尽可能少的数据来表示。注意当 xi Y 的某一些元素的表示时,有 zi0 ,也就是 Z 的第 i 行是非零的。于是,有较少的表示对应着有较少的非零行在 Z 中。结合以上的两个目标,考虑如下的优化问题

min{ zij}s.t.  λi=1MI(||zi||p)+j=1Ni=1Mdijzij  i=1Mzij=1, j; zij{ 0,1}, i,j,(3)

其中 ||||p 表示 p 范数, I() 表示一个指示函数,如果其参数为 0 ,值也为零;否则,值为 1 。目标函数的第一项对应表示的数量,第二项表示编码 Y 的总代价。约束参数 λ>0 权衡两项的大小。由于该函数包含计算 Z 的非零行的数量,和二值约束 zij{ 0,1} 是非凸的,一般是 NP-hard,所以此文考虑了如下的凸松弛
min{ zij}s.t.  λi=1M||z
  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值