Dual Shared-Specific Multiview Subspace Clustering
-
- Abstract
- 1 Introduction
- 2 Related Work
- 3 Proposed Method
-
- 3.1 Formulation
- 3.2 Optimization
-
- P v − S u b p r o b l e m P_v -Subproblem Pv−Subproblem:
- H v − S u b p r o b l e m H_v -Subproblem Hv−Subproblem:
- Z v − S u b p r o b l e m Z_v -Subproblem Zv−Subproblem:
- Q v − S u b p r o b l e m Q_v -Subproblem Qv−Subproblem:
- E v − S u b p r o b l e m E_v -Subproblem Ev−Subproblem:
- J − S u b p r o b l e m J-Subproblem J−Subproblem:
- Z ~ − S u b p r o b l e m \widetilde{Z} -Subproblem Z −Subproblem:
- H − S u b p r o b l e m H -Subproblem H−Subproblem:
- M u l t i p l i e r : Multiplier: Multiplier:
- Algorithm
- Personal Review
原文链接 https://ieeexplore.ieee.org/document/8740912
Abstract
近年来,多视域、多视域真实数据的可用性迅速提高,使得多视域子空间聚类得到了广泛的关注。提高多视图聚类算法的性能受到两个主要因素的挑战。
首先,由于多视角数据中原始特征的冗余性较高,基于这些属性进行重构必然导致性能较差。其次,由于这种多视图数据的每个视图都可能包含相对于其他视图的独特知识,因此在同时研究每个视图的唯一性的同时利用多个视图的互补信息仍然是一个挑战。
此文提出一种新的 对偶共享特定多视图子空间聚类方法,该方法在学习多个视图之间共享信息的相关性的同时,还利用视图的特定信息来描述每个独立视图的特定属性。此外,制定了一种双重学习框架,来捕获共享特定的信息到 降维和自我表征中。
1. Simultaneously learns the correlations between shared information across multiple views and also utilizes view-specific information to depict specific property for each independent view.
2. Formulate a dual learning framework to capture shared-specific information into the dimensional reduction and self-representation processes.
1 Introduction
目前研究存在的主要问题有:
- 原始的特征包含了高维度的冗余,它会降低聚类的表现
- 在聚类时,许多方法不能在 通过多视角利用shared information的同时,保留特殊的独特性
所以,propose a dual shared-specific multiview subspace clustering (DSS-MSC) approach
Fig.1. Basic framework of the proposed DSS-MSC approach
论文提出的方法DSS-MSC,在通过视角学习共享信息来得到输入的潜在相关性时,利用具体视角的信息来概述每个独立的视角的独特的属性。
通过将原始特征投影到低维特征空间中,利用低维特征表示对数据点进行重构,从而减轻冗余的影响。更进一步,论文构建了一个双重学习框架来捕获共享的特定信息,到特征投影和自我表示阶段,从而增强了方法对共享信息的开发和有效保留视图特定属性的能力。最后,结合共享和和特定视角的自我表征,构建了一个新的相似矩阵。
2 Related Work
论文采用一个广泛接受的假设:每个数据点都可以表示为原始数据点本身的线性组合
具体地说, X = [ x 1 , x 2 , … , x N ] ∈ R L × N \mathbf{X}=\left[ \mathbf{x}_1, \mathbf{x}_{2}, \ldots, \mathbf{x}_{N}\right] \in \mathbb{R}^{L \times N} X=[x1,x2,…,xN]∈RL×N 表示数据矩阵,每一列是一个样本向量(sample vector),L 和 N 分别表示特征的维度和样本的数量,则self-representation 模型可以表述为: min Z L ( X , X Z ) + λ Ψ ( Z ) (1) \min_{\mathbf{Z}}\mathcal{L} (\mathbf{X},\mathbf{XZ})+\lambda\Psi(\mathbf{Z}) \tag1 ZminL(X,XZ)+λΨ(Z)(1)
λ \lambda λ: 正则化参数
Z = [ z 1 , z 2 , … , z N ] ∈ R N × N \mathbf{Z}=[\mathbf{z}_1 ,\mathbf{z}_2, \ldots,\mathbf{z}_N]\in\mathbb{R}^{N \times N} Z=[z1,z2,…,zN]∈RN×N: self-representation matrix,每个 z i \mathbf{z}_i zi为原始数据点 x i \mathbf{x}_i xi对观测数据 X \mathbf{X} X的编码系数
L ( ⋅ ) \mathcal{L}(·) L(⋅): loss function
Ψ ( ⋅ ) \Psi(·) Ψ(⋅): regularization term 正则化项
更进一步的,使用 S = ( ∣ Z ∣ + ∣ Z ⊤ ∣ ) / 2 \mathbf{S}=\left(|\mathbf{Z}|+\left|\mathbf{Z}^{\top}\right|\right) / 2 S=(∣Z∣+∣∣Z⊤∣∣)/2可以计算相似矩阵。接着,将相似矩阵用作谱聚类算法的输入取得到最后的聚类结果。
但这些都只考虑单视角的特征,利用原始视角去重构数据点。
所有表现出好的性能的工作都有一个潜在的假设:多视角都源自于一个潜在的表示(laten representation),并且潜在表示可以有效地挖掘不同视角之间的关联。但他们只考虑了共享潜在(隐藏)表示,忽略了个体具体的属性。
3 Proposed Method
3.1 Formulation
给出一个数据集(data set) X v ∈ R L v × N \mathbf{X}_v\in\mathbb{R}^{L_v\times N} Xv∈RLv×N,其中 X v \mathbf{X}_v Xv表示第 v v v视角的特征矩阵( v = 1 , 2 , … , V v=1,2,\ldots,V v=1,2,…,V), L v : v L_v:v Lv:v视角特征的维数, N : N: N:样本数。使用线性投影, X v \mathbf{X}_v Xv可以转换为低维表示:
H v = P v X v + E v 1 (2) \mathbf{H}_v=\mathbf{P}_v\mathbf{X}_v+\mathbf{E}_v^1 \tag2 Hv=PvXv+Ev1(2)
其中, P v ∈ R D v × L v \mathbf{P}_v\in\mathbb{R}^{D_v\times L_v} Pv∈RDv×Lv 是投影矩阵, H v ∈ R D v × N \mathbf{H}_v\in\mathbb{R}^{D_v\times N} Hv∈RDv×N是 v v v层视角的低维表示。
为了进行多视图子空间聚类 和 利用多个视图中各特征之间的相关性,我们将上式扩展为:
[ H ; H v ] = P v X v + E v 1 (3) [\mathbf{H;H}_v]=\mathbf{P}_v\mathbf{X}_v+\mathbf{E}_v^1 \tag3 [H;Hv]=PvXv+Ev1(3)
H ∈ R D × N \mathbf{H}\in\mathbb{R}^{D\times N} H∈RD×N表示多视角的共享部分,如图1所示。 H v \mathbf{H}_v Hv表示每个视角的具体特征, H \mathbf{H} H表示他们的一致的共享特征。假设不同视角在低维特征空间上共享部分的特征,从而均衡了多个视图之间的相关性。因此,目标函数:推断多视图低维表示模型,可以写为: min P v , H v , E v 1 , H ∑ v V ∥ [ H ; H v ] − P v X v − E v 1 ∥ F 2 (4) \min _{\mathbf{P}_{v}, \mathbf{H}_{v}, \mathbf{E}_{v}^{1}, \mathbf{H}} \sum_{v}^{V}\left\| \left[\mathbf{H} ; \mathbf{H}_{v}\right]-\mathbf{P}_{v} \mathbf{X}_{v}-\mathbf{E}_{v}^{1}\right\|_{F}^{2}\tag4 Pv,Hv,Ev1,Hminv∑V∥∥[H;Hv]−PvXv−Ev1∥∥F2(4)
进一步的,对于相应的低维的表示 [ H ; H v ] [\mathbf{H;H}_v] [H;Hv],基于自我表征的子空间聚类的目标函数可以重新表示为
min H v , Z v , E v 2 , Z ~ , H ∑ v V ∥ [ H ; H v ] − [ H ; H v ] Z ~ − [ H ; H v ] Z v − E v 2 ∥ F 2 (5) \min _{\mathbf{H}_{v}, \mathbf{Z}_{v}, \mathbf{E}_{v}^{2},\tilde \mathbf{Z}, \mathbf{H}} \sum_{v}^{V}\left\|\left[\mathbf{H} ; \mathbf{H}_{v}\right]-\left[\mathbf{H} ; \mathbf{H}_{v}\right] \tilde{\mathbf{Z}}-\left[\mathbf{H} ; \mathbf{H}_{v}\right] \mathbf{Z}_{v}-\mathbf{E}_{v}^{2}\right\|_{F}^{2}\tag5 Hv,Zv,Ev2,Z~,Hminv∑V∥∥∥[H;Hv]−[H;Hv]Z~−[H;Hv]Zv−Ev2∥∥∥F2(5)
Z ~ \tilde\mathbf{Z} Z~表示所有视角共享的自我表示的系数矩阵, Z v \mathbf{Z}_v Zv表示单个视角的具体的自我表示的系数矩阵
通过融合共享和具体视角的信息到一个多视角子空间聚类框架中,目标函数可写为:
min P v , H v , Z v , E v , Z ~ , H ∥ Z ~ ∥ ∗ + λ ∑ v ∥ E v ∥ 2 , 1 + β ∑ v ∥ Z v ∥ 1 s.t. P v X v = [ H ; H v ] + E v 1 [ H ; H v ] = [ H ; H v ] Z ~ + [ H ; H v ] Z v + E v 2 P v P v ⊤ = I , E v = [ E v 1 ; E v 2 ] , diag ( Z v ) = 0 ∀ v = 1 , … , V (6) \begin{aligned}\min _{\mathbf{P}_{v}, \mathbf{H}_{v}, \mathbf{Z}_{v}, \mathbf{E}_{v}, \widetilde{\mathbf{Z}}, \mathbf{H}} &\|\widetilde{\mathbf{Z}}\|_{*}+\lambda \sum_{v}\left\|\mathbf{E}_{v}\right\|_{2,1}+\beta \sum_{v}\left\|\mathbf{Z}_{v}\right\|_{1} \\\text { s.t. } & \mathbf{P}_{v} \mathbf{X}_{v}=\left[\mathbf{H} ; \mathbf{H}_{v}\right]+\mathbf{E}_{v}^{1} \\&\left[\mathbf{H} ; \mathbf{H}_{v}\right]=\left[\mathbf{H} ; \mathbf{H}_{v}\right] \widetilde{\mathbf{Z}}+\left[\mathbf{H} ; \mathbf{H}_{v}\right] \mathbf{Z}_{v}+\mathbf{E}_{v}^{2} \\& \mathbf{P}_{v} \mathbf{P}_{v}^{\top}=\mathbf{I}, \mathbf{E}_{v}=\left[\mathbf{E}_{v}^{1} ; \mathbf{E}_{v}^{2}\right], \operatorname{diag}\left(\mathbf{Z}_{v}\right)=0 \\& \forall v=1, \ldots, V\end{aligned}\tag6 Pv,Hv,Zv,Ev,Z