论文笔记:Twin Learning for Similarity and Clustering: A Unified Kernel Approach

学长发来推荐看的一篇论文,读后学习到了其中对核函数的应用以及论文的写作。

Abstract

  • 基于相似度的聚类通常基于两个独立的步骤,包括构建相似度矩阵和后续的谱聚类;
  • 由于度量标准、临近点尺寸、数据规模和噪声等,衡量相似度是一个不易解决的问题,这导致学到的相似度矩阵经常是不合适的;
  • 此外,现实世界数据经常存在非线性的相似度,这点并没有被现有的一些方法考虑到;
  • 为了解决这两个问题,本文通过条理化的方法提出了一个模型来同时学习核空间中的聚类指示矩阵和相似度信息;
  • 本文将展示与核kmeans、kmeans及谱聚类在原理上的联系;
  • 本文通过结合多重核学习能力来拓展了提出的模型,以此解决针对特定的任务如何选择最合适的核的问题,避免了搜索最佳内核;
  • 通过这样的联合模型,可以自动地解决三个子任务,即寻找最优的聚类指示矩阵、计算出最准确的相似关系、最优的多重核组合;
  • 通过在联合框架中利用这三个子任务之间的相互作用,每个子任务都可以独立地进行优化,实验证明了本文提出的方法的效果。

Introduction

  • kmeans无法识别任意形状的聚类,而核kmeans可以捕捉数据集中隐藏的非线性结构信息,但是基于内核的方法很大程度上受到内核选择的影响;
  • 基于相似性的谱聚类方法通常表现出比kmeans算法更好的性能,但是如度量标准,邻域大小和数据规模等会影响到性能;
  • 自我表达方法通过用其他数据点来表示每个数据点,可以从数据自动地学到相似度信息,这种方法不仅可以揭示低维结构,还对噪声和数据规模具有鲁棒性。

Contributions

采用了“express itself”的方法,提取数据的全局结构,并可以扩展到内核空间;

  • 通过施加拉普拉斯秩约束来同时学习相似度矩阵和聚类指标,通过利用学习相似性和聚类指标之间的内在相互作用,本文提出的模型将它们无缝地集成到一个联合框架中,其中一个任务的结果用于改进另一个任务;
  • 本文直接在核空间中开发模型,因此能够探索非线性关系,同时设计了一种有效的算法来找到模型的最优解;
  • 用于特定任务的最合适的内核通常是事先未知的,因此提出了一个多核算法对模型进行了优化。

Clustering with Single Kernel

  • 根据自我表达方法(express itself): x i ≈ ∑ j X j z i j , s . t . Z i T 1 = 1 , 0 ≤ z i j ≤ 1 x_i\approx\sum_{j}X_jz_{ij}, s.t. Z_i^T\mathbf {1}=1,0\le z_{ij}\le1 xijXjzij,s.t.ZiT1=1,0zij1在上式的基础上,有: min ⁡ Z ∥ X − X Z ∥ F 2 + α ∥ Z ∥ F s . t . Z T 1 = 1 , 0 ≤ Z ≤ 1 \min_{Z} \left \| X -XZ\right \|_{F}^{2}+\alpha\left \| Z \right \|_F\\s.t. Z^T\mathbf {1}=1,0\le Z\le1 ZminXXZF2+αZFs.t.ZT1=1,0Z1
  • 上式的缺点是它假定样本之间的关系都是线性的,为了恢复数据点之间的非线性关系,本文将上式拓展到内核空间(参考 [A general kernelization framework for learning algorithms based on kernel PCA]);
  • ϕ : R D → H \phi:\mathcal{R^D\to H} ϕ:RDH定义为将数据样本从输入空间映射到再生核Hilbert空间 H \mathcal{H} H的核,对于包含n个样本的 X ∈ [ X 1 , . . . , X n ] X\in[X_1,...,X_n] X[X1,...,Xn],变换为 ϕ ( X ) = [ ϕ ( X 1 ) , . . . , ϕ ( X n ) ] \phi(X)=[\phi(X_1),...,\phi(X_n)] ϕ(X)=[ϕ(X1),...,ϕ(Xn)]。数据样本 X i X_i Xi X j X_j Xj之间的核相似性通过预定义的内核定义为 K X i , X j = &lt; ϕ ( X i ) , ϕ ( X j ) &gt; K_{X_i,X_j}=&lt;\phi(X_i),\phi(X_j)&gt; KXi,Xj=<ϕ(Xi),ϕ(Xj)>
    -因此,所有的相似性都可以使用和函数专门计算,而且不需要知道变换 ϕ \phi ϕ,这被称为内核技巧,它在内核预先计算时极大地简化了内核空间中的计算。因此目标函数变为: min ⁡ Z T r ( K − 2 K Z + Z T K Z ) + α ∥ Z ∥ F s . t . Z T 1 = 1 , 0 ≤ Z ≤ 1 \min_{Z} Tr(K-2KZ+Z^TKZ)+\alpha\left \| Z \right \|_F\\s.t. Z^T\mathbf {1}=1,0\le Z\le1 ZminTr(K2KZ+ZTKZ)+αZFs.t.ZT1=1,0Z1
  • 通过解决上式,可以学得 ϕ ( X ) \phi(X) ϕ(X)的线性稀疏关系,从而得到X之间的非线性关系。如果使用线性核,则还是未拓展到内核空间的式子。
  • L为Z的拉普拉斯矩阵,加入秩约束: min ⁡ Z T r ( K − 2 K Z + Z T K Z ) + α ∥ Z ∥ F s . t . Z T 1 = 1 , 0 ≤ Z ≤ 1 , r a n k ( L ) = n − c \min_{Z} Tr(K-2KZ+Z^TKZ)+\alpha\left \| Z \right \|_F\\s.t. Z^T\mathbf {1}=1,0\le Z\le1,rank(L)=n-c ZminTr(K2KZ+ZTKZ)+αZFs.t.ZT1=1,0Z1,rank(L)=nc
  • 和其他工作类似,引入一个 σ \sigma σ函数来解决秩约束的优化求解问题: min ⁡ Z T r ( K − 2 K Z + Z T K Z ) + α ∥ Z ∥ F + β ∑ i = 1 c σ i ( L ) s . t . Z T 1 = 1 , 0 ≤ Z ≤ 1 \min_{Z} Tr(K-2KZ+Z^TKZ)+\alpha\left \| Z \right \|_F+\beta\sum_{i=1}^{c} \sigma_i(L)\\s.t. Z^T\mathbf {1}=1,0\le Z\le1 ZminTr(K2KZ+ZTKZ)+αZF+βi=1cσi(L)s.t.ZT1=1,0Z1
  • 进而转化为: min ⁡ Z , P T r ( K − 2 K Z + Z T K Z ) + α ∥ Z ∥ F + β T r ( P T L P ) s . t . Z T 1 = 1 , 0 ≤ Z ≤ 1 , P T P = I \min_{Z,P} Tr(K-2KZ+Z^TKZ)+\alpha\left \| Z \right \|_F+\beta Tr(P^TLP)\\s.t. Z^T\mathbf {1}=1,0\le Z\le1,P^TP=I Z,PminTr(K2KZ+ZTKZ)+αZF+βTr(PTLP)s.t.ZT1=1,0Z1,PTP=I

Optimization Algorithm

  • 采用交替优化的策略,当Z固定的时候,目标函数变为: min ⁡ P T P = I T r ( P T L P ) \min_{P^TP=I}Tr(P^TLP) PTP=IminTr(PTLP)通过对应于c个最小特征值的L的特征向量获得最优解P(谱聚类中常见)。
  • 当P固定的时候,目标函数按列重新表示为:
    min ⁡ Z i K i i − 2 K i , : Z i + Z i T K Z i + α Z i T Z i + β 2 d i T Z i , s . t . Z i T 1 = 1 , 0 ≤ z i j ≤ 1 \min_{Z_i} K_{ii}-2K_{i,:}Z_i+Z^T_iKZ_i+\alpha Z^T_iZ_i+\frac\beta 2d^T_iZ_i,\\s.t. Z^T_i\mathbf {1}=1,0\le z_{ij}\le1 ZiminKii2Ki,:Zi+ZiTKZi+αZiTZi+2βdiTZi,s.t.ZiT1=1,0zij1其中 d i T = ∥ P i , : − P j , : ∥ 2 z i j = T r ( P T L P ) d^T_i=\left \|P_{i,:}-P_{j,:} \right \|^2z_{ij}=Tr(P^TLP) diT=Pi,:Pj,:2zij=Tr(PTLP),这是由 ∑ i , j 1 2 ∥ P i , : − P j , : ∥ 2 z i j = T r ( P T L P ) \sum_{i,j}\frac1 2 \left \|P_{i,:}-P_{j,:} \right \|^2z_{ij}=Tr(P^TLP) i,j21Pi,:Pj,:2zij=Tr(PTLP)得到的。
  • 上式可以进一步简化为: min ⁡ Z i Z i T ( α I + K ) Z i + ( β d i T 2 − 2 K i , : ) Z i , s . t . Z i T 1 = 1 , 0 ≤ z i j ≤ 1 \min_{Z_i} Z_{i}^T(\alpha I+K)Z_i+(\frac{\beta d^T_i} 2-2K_{i,:})Z_i,\\s.t. Z^T_i\mathbf {1}=1,0\le z_{ij}\le1 ZiminZiT(αI+K)Zi+(2βdiT2Ki,:)Zi,s.t.ZiT1=1,0zij1这样就转化成了二次规划(QP)问题,易于求解。

Clustering with Multiple Kernels

  • 使用映射 ϕ ~ ( X ) = [ w 1 ϕ 1 ( X 1 ) , . . . , w r ϕ r ( X n ) ] \tilde{\phi}(X)=[\sqrt{w_1}\phi_1(X_1),...,\sqrt{w_r}\phi_r(X_n)] ϕ~(X)=[w1 ϕ1(X1),...,wr ϕr(Xn)]构造增强的Hilbert空间,核相似性变为: K w ( x , y ) = &lt; ϕ w ( X ) , ϕ w ( X ) &gt; = ∑ i = 1 r w i K i ( x , y ) K_{w}(x,y)=&lt;\phi_w(X),\phi_w(X)&gt;=\sum^r_{i=1} w_iK^i(x,y) Kw(x,y)=<ϕw(X),ϕw(X)>=i=1rwiKi(x,y)
  • 目标函数变为: min ⁡ Z , P , w T r ( K w − 2 K w Z + Z T K w Z ) + α ∥ Z ∥ F + β T r ( P T L P ) s . t . Z T 1 = 1 , 0 ≤ Z ≤ 1 , P T P = I , K w = ∑ i = 1 r w i K i , ∑ i = 1 r w i = 1 , w i ≥ 0 \min_{Z,P,w} Tr(K_{w}-2K_{w}Z+Z^TK_{w}Z)+\alpha\left \| Z \right \|_F+\beta Tr(P^TLP)\\s.t. Z^T\mathbf {1}=1,0\le Z\le1,P^TP=I,\\ K_{w}=\sum^r_{i=1} w_iK^i,\sum^r_{i=1}\sqrt{w_i}=1,w_i\ge0 Z,P,wminTr(Kw2KwZ+ZTKwZ)+αZF+βTr(PTLP)s.t.ZT1=1,0Z1,PTP=I,Kw=i=1rwiKi,i=1rwi =1,wi0然后交替进行优化。(这里用 ∑ i = 1 r w i = 1 \sum^r_{i=1}\sqrt{w_i}=1 i=1rwi =1而不是 ∑ i = 1 r w i = 1 \sum^r_{i=1}{w_i}=1 i=1rwi=1,我的理解是 求得 K w ( x , y ) K_w(x,y) Kw(x,y)的时候,核函数 w ϕ w ( X ) \sqrt{w}\phi_w(X) w ϕw(X) w ϕ w ( X ) \sqrt{w}\phi_w(X) w ϕw(X)有相乘的关系)

Optimization

  • 优化Z和P的时候,和单视角一样。
  • 优化w时,将目标函数写为 min ⁡ w ∑ i = 1 r w i h i s . t . ∑ i = 1 r w i = 1 , w i ≥ 0 \min_{w} \sum^r_{i=1}w_ih_i s.t. \sum^r_{i=1}\sqrt{w_i}=1,w_i\ge0 wmini=1rwihis.t.i=1rwi =1,wi0
    其中 h i = T r ( K i − 2 K i Z + Z T K i Z ) h_i=Tr(K^i-2K^iZ+Z^TK^iZ) hi=Tr(Ki2KiZ+ZTKiZ)
  • 通过利用拉格朗日函数的KKT条件和约束条件,w的解为: w i = ( h i ∑ j = 1 r 1 h j ) − 2 w_i=(h_i\sum^r_{j=1}\frac 1 {h_j})^{-2} wi=(hij=1rhj1)2

Experiments

  • 实验时设计了12个核,并将数据通过将每个元素除以最大的成对平方距离来进行预处理。可以看到,本文提出的SCSK单核方法效果很好,SCMK多核效果更好,甚至jaffe数据集达到了100%。
  • 让α在{1e-5,1e-4,1e-3,0.01,0.1,1,10,100}范围内变化,让β在{1e-6,1e-5}范围内变化,可以看出对α很稳定,对β值更敏感。(怎么感觉对这两个参数都不怎么鲁棒啊 ==|)
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
fsim: a feature similarity index for image quality assessment代码是用于图像质量评估的一种特征相似性指数。 该代码是在图像处理领域中常用的一种评估指标,用于量化图像质量的好坏程度。它基于图像的特征相似性来评估图像的质量,而不是简单地比较图像的像素值。 该代码的实现基于一系列的图像特征。它会对输入的两幅图像进行特征提取,然后计算这些特征之间的相似性。其中特征可以包括颜色、纹理、对比度等。 通过计算特征之间的相似性,可以得到两幅图像的相似度。这个相似度的数值可以作为图像质量的评估指标。如果两幅图像的特征相似度高,那么它们的质量就相似。反之,如果相似度低,则意味着图像质量较差。 这个代码对于图像质量评估非常有用。在图像处理领域中,我们经常需要评估算法对图像质量的影响。通过使用fsim代码,我们可以定量地评估算法对图像质量的改善程度。 同时,这个代码也可以用来比较不同图像处理算法之间的效果。通过计算不同算法处理后图像的质量评估指标,我们可以选择最佳的算法进行图像处理。 总而言之,fsim: a feature similarity index for image quality assessment代码是一种用于图像质量评估的特征相似性指数。它通过计算图像特征之间的相似性来评估图像的质量,可以用于算法的质量评估和算法选择。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值