Dual Shared-Specific Multiview Subspace Clustering
- Abstract
- 1 Introduction
- 2 Related Work
- 3 Proposed Method
- 3.1 Formulation
- 3.2 Optimization
- P v − S u b p r o b l e m P_v -Subproblem Pv−Subproblem:
- H v − S u b p r o b l e m H_v -Subproblem Hv−Subproblem:
- Z v − S u b p r o b l e m Z_v -Subproblem Zv−Subproblem:
- Q v − S u b p r o b l e m Q_v -Subproblem Qv−Subproblem:
- E v − S u b p r o b l e m E_v -Subproblem Ev−Subproblem:
- J − S u b p r o b l e m J-Subproblem J−Subproblem:
- Z ~ − S u b p r o b l e m \widetilde{Z} -Subproblem Z −Subproblem:
- H − S u b p r o b l e m H -Subproblem H−Subproblem:
- M u l t i p l i e r : Multiplier: Multiplier:
- Algorithm
- Personal Review
原文链接 https://ieeexplore.ieee.org/document/8740912
Abstract
近年来,多视域、多视域真实数据的可用性迅速提高,使得多视域子空间聚类得到了广泛的关注。提高多视图聚类算法的性能受到两个主要因素的挑战。
首先,由于多视角数据中原始特征的冗余性较高,基于这些属性进行重构必然导致性能较差。其次,由于这种多视图数据的每个视图都可能包含相对于其他视图的独特知识,因此在同时研究每个视图的唯一性的同时利用多个视图的互补信息仍然是一个挑战。
此文提出一种新的 对偶共享特定多视图子空间聚类方法,该方法在学习多个视图之间共享信息的相关性的同时,还利用视图的特定信息来描述每个独立视图的特定属性。此外,制定了一种双重学习框架,来捕获共享特定的信息到 降维和自我表征中。
1. Simultaneously learns the correlations between shared information across multiple views and also utilizes view-specific information to depict specific property for each independent view.
2. Formulate a dual learning framework to capture shared-specific information into the dimensional reduction and self-representation processes.
1 Introduction
目前研究存在的主要问题有:
- 原始的特征包含了高维度的冗余,它会降低聚类的表现
- 在聚类时,许多方法不能在 通过多视角利用shared information的同时,保留特殊的独特性
所以,propose a dual shared-specific multiview subspace clustering (DSS-MSC) approach
Fig.1. Basic framework of the proposed DSS-MSC approach
论文提出的方法DSS-MSC,在通过视角学习共享信息来得到输入的潜在相关性时,利用具体视角的信息来概述每个独立的视角的独特的属性。
通过将原始特征投影到低维特征空间中,利用低维特征表示对数据点进行重构,从而减轻冗余的影响。更进一步,论文构建了一个双重学习框架来捕获共享的特定信息,到特征投影和自我表示阶段,从而增强了方法对共享信息的开发和有效保留视图特定属性的能力。最后,结合共享和和特定视角的自我表征,构建了一个新的相似矩阵。
2 Related Work
论文采用一个广泛接受的假设:每个数据点都可以表示为原始数据点本身的线性组合
具体地说,
X
=
[
x
1
,
x
2
,
…
,
x
N
]
∈
R
L
×
N
\mathbf{X}=\left[ \mathbf{x}_1, \mathbf{x}_{2}, \ldots, \mathbf{x}_{N}\right] \in \mathbb{R}^{L \times N}
X=[x1,x2,…,xN]∈RL×N 表示数据矩阵,每一列是一个样本向量(sample vector),L 和 N 分别表示特征的维度和样本的数量,则self-representation 模型可以表述为:
min
Z
L
(
X
,
X
Z
)
+
λ
Ψ
(
Z
)
(1)
\min_{\mathbf{Z}}\mathcal{L} (\mathbf{X},\mathbf{XZ})+\lambda\Psi(\mathbf{Z}) \tag1
ZminL(X,XZ)+λΨ(Z)(1)
λ
\lambda
λ: 正则化参数
Z
=
[
z
1
,
z
2
,
…
,
z
N
]
∈
R
N
×
N
\mathbf{Z}=[\mathbf{z}_1 ,\mathbf{z}_2, \ldots,\mathbf{z}_N]\in\mathbb{R}^{N \times N}
Z=[z1,z2,…,zN]∈RN×N: self-representation matrix,每个
z
i
\mathbf{z}_i
zi为原始数据点
x
i
\mathbf{x}_i
xi对观测数据
X
\mathbf{X}
X的编码系数
L
(
⋅
)
\mathcal{L}(·)
L(⋅): loss function
Ψ
(
⋅
)
\Psi(·)
Ψ(⋅): regularization term 正则化项
更进一步的,使用
S
=
(
∣
Z
∣
+
∣
Z
⊤
∣
)
/
2
\mathbf{S}=\left(|\mathbf{Z}|+\left|\mathbf{Z}^{\top}\right|\right) / 2
S=(∣Z∣+∣∣Z⊤∣∣)/2可以计算相似矩阵。接着,将相似矩阵用作谱聚类算法的输入取得到最后的聚类结果。
但这些都只考虑单视角的特征,利用原始视角去重构数据点。
所有表现出好的性能的工作都有一个潜在的假设:多视角都源自于一个潜在的表示(laten representation),并且潜在表示可以有效地挖掘不同视角之间的关联。但他们只考虑了共享潜在(隐藏)表示,忽略了个体具体的属性。
3 Proposed Method
3.1 Formulation
给出一个数据集(data set)
X
v
∈
R
L
v
×
N
\mathbf{X}_v\in\mathbb{R}^{L_v\times N}
Xv∈RLv×N,其中
X
v
\mathbf{X}_v
Xv表示第
v
v
v视角的特征矩阵(
v
=
1
,
2
,
…
,
V
v=1,2,\ldots,V
v=1,2,…,V),
L
v
:
v
L_v:v
Lv:v视角特征的维数,
N
:
N:
N:样本数。使用线性投影,
X
v
\mathbf{X}_v
Xv可以转换为低维表示:
H
v
=
P
v
X
v
+
E
v
1
(2)
\mathbf{H}_v=\mathbf{P}_v\mathbf{X}_v+\mathbf{E}_v^1 \tag2
Hv=PvXv+Ev1(2)
其中,
P
v
∈
R
D
v
×
L
v
\mathbf{P}_v\in\mathbb{R}^{D_v\times L_v}
Pv∈RDv×Lv 是投影矩阵,
H
v
∈
R
D
v
×
N
\mathbf{H}_v\in\mathbb{R}^{D_v\times N}
Hv∈RDv×N是
v
v
v层视角的低维表示。
为了进行多视图子空间聚类 和 利用多个视图中各特征之间的相关性,我们将上式扩展为:
[
H
;
H
v
]
=
P
v
X
v
+
E
v
1
(3)
[\mathbf{H;H}_v]=\mathbf{P}_v\mathbf{X}_v+\mathbf{E}_v^1 \tag3
[H;Hv]=PvXv+Ev1(3)
H
∈
R
D
×
N
\mathbf{H}\in\mathbb{R}^{D\times N}
H∈RD×N表示多视角的共享部分,如图1所示。
H
v
\mathbf{H}_v
Hv表示每个视角的具体特征,
H
\mathbf{H}
H表示他们的一致的共享特征。假设不同视角在低维特征空间上共享部分的特征,从而均衡了多个视图之间的相关性。因此,目标函数:推断多视图低维表示模型,可以写为:
min
P
v
,
H
v
,
E
v
1
,
H
∑
v
V
∥
[
H
;
H
v
]
−
P
v
X
v
−
E
v
1
∥
F
2
(4)
\min _{\mathbf{P}_{v}, \mathbf{H}_{v}, \mathbf{E}_{v}^{1}, \mathbf{H}} \sum_{v}^{V}\left\| \left[\mathbf{H} ; \mathbf{H}_{v}\right]-\mathbf{P}_{v} \mathbf{X}_{v}-\mathbf{E}_{v}^{1}\right\|_{F}^{2}\tag4
Pv,Hv,Ev1,Hminv∑V∥∥[H;Hv]−PvXv−Ev1∥∥F2(4)
进一步的,对于相应的低维的表示
[
H
;
H
v
]
[\mathbf{H;H}_v]
[H;Hv],基于自我表征的子空间聚类的目标函数可以重新表示为
min
H
v
,
Z
v
,
E
v
2
,
Z
~
,
H
∑
v
V
∥
[
H
;
H
v
]
−
[
H
;
H
v
]
Z
~
−
[
H
;
H
v
]
Z
v
−
E
v
2
∥
F
2
(5)
\min _{\mathbf{H}_{v}, \mathbf{Z}_{v}, \mathbf{E}_{v}^{2},\tilde \mathbf{Z}, \mathbf{H}} \sum_{v}^{V}\left\|\left[\mathbf{H} ; \mathbf{H}_{v}\right]-\left[\mathbf{H} ; \mathbf{H}_{v}\right] \tilde{\mathbf{Z}}-\left[\mathbf{H} ; \mathbf{H}_{v}\right] \mathbf{Z}_{v}-\mathbf{E}_{v}^{2}\right\|_{F}^{2}\tag5
Hv,Zv,Ev2,Z~,Hminv∑V∥∥∥[H;Hv]−[H;Hv]Z~−[H;Hv]Zv−Ev2∥∥∥F2(5)
Z
~
\tilde\mathbf{Z}
Z~表示所有视角共享的自我表示的系数矩阵,
Z
v
\mathbf{Z}_v
Zv表示单个视角的具体的自我表示的系数矩阵
通过融合共享和具体视角的信息到一个多视角子空间聚类框架中,目标函数可写为:
min
P
v
,
H
v
,
Z
v
,
E
v
,
Z
~
,
H
∥
Z
~
∥
∗
+
λ
∑
v
∥
E
v
∥
2
,
1
+
β
∑
v
∥
Z
v
∥
1
s.t.
P
v
X
v
=
[
H
;
H
v
]
+
E
v
1
[
H
;
H
v
]
=
[
H
;
H
v
]
Z
~
+
[
H
;
H
v
]
Z
v
+
E
v
2
P
v
P
v
⊤
=
I
,
E
v
=
[
E
v
1
;
E
v
2
]
,
diag
(
Z
v
)
=
0
∀
v
=
1
,
…
,
V
(6)
\begin{aligned}\min _{\mathbf{P}_{v}, \mathbf{H}_{v}, \mathbf{Z}_{v}, \mathbf{E}_{v}, \widetilde{\mathbf{Z}}, \mathbf{H}} &\|\widetilde{\mathbf{Z}}\|_{*}+\lambda \sum_{v}\left\|\mathbf{E}_{v}\right\|_{2,1}+\beta \sum_{v}\left\|\mathbf{Z}_{v}\right\|_{1} \\\text { s.t. } & \mathbf{P}_{v} \mathbf{X}_{v}=\left[\mathbf{H} ; \mathbf{H}_{v}\right]+\mathbf{E}_{v}^{1} \\&\left[\mathbf{H} ; \mathbf{H}_{v}\right]=\left[\mathbf{H} ; \mathbf{H}_{v}\right] \widetilde{\mathbf{Z}}+\left[\mathbf{H} ; \mathbf{H}_{v}\right] \mathbf{Z}_{v}+\mathbf{E}_{v}^{2} \\& \mathbf{P}_{v} \mathbf{P}_{v}^{\top}=\mathbf{I}, \mathbf{E}_{v}=\left[\mathbf{E}_{v}^{1} ; \mathbf{E}_{v}^{2}\right], \operatorname{diag}\left(\mathbf{Z}_{v}\right)=0 \\& \forall v=1, \ldots, V\end{aligned}\tag6
Pv,Hv,Zv,Ev,Z
,Hmin s.t. ∥Z
∥∗+λv∑∥Ev∥2,1+βv∑∥Zv∥1PvXv=[H;Hv]+Ev1[H;Hv]=[H;Hv]Z
+[H;Hv]Zv+Ev2PvPv⊤=I,Ev=[Ev1;Ev2],diag(Zv)=0∀v=1,…,V(6)
λ
和
β
\lambda和\beta
λ和β:正则化参数
∣
∣
.
∣
∣
∗
||.||_*
∣∣.∣∣∗ :矩阵核范数,使得子空间表示为低秩
∣
∣
.
∣
∣
2
,
1
||.||_{2,1}
∣∣.∣∣2,1 :
ℓ
2
,
1
\ell_{2,1}
ℓ2,1-norm ,encourages 矩阵的列(column)为0,即
∥
E
∥
2
,
1
=
∑
j
=
1
N
∑
i
=
1
M
[
E
i
j
]
2
,
where
E
∈
R
M
×
N
\|\mathbf{E}\|_{2,1}=\sum_{j=1}^{N} \sqrt{\sum_{i=1}^{M}\left[\mathbf{E}_{i j}\right]^{2}}, \text { where } \mathbf{E} \in \mathbb{R}^{M \times N}
∥E∥2,1=∑j=1N∑i=1M[Eij]2, where E∈RM×N
3.2 Optimization
Algorithm 1: Solving Problem (8) via ADMM(Alternating direction method of multipliers)
即一次中,只改变一个变量,其他的变量保持不变
引入两个辅助变量
J
、
Q
v
\mathbf{J} 、\mathbf{Q}_v
J、Qv使得问题separable。进一步,我们转化为以下相等的问题:
min
P
v
,
H
v
,
Z
v
,
Q
v
,
E
v
,
Z
~
,
J
,
H
∥
J
∥
∗
+
λ
∑
v
∥
E
v
∥
2
,
1
+
β
∑
v
∥
Q
v
∥
1
s.t.
P
v
X
v
=
[
H
;
H
v
]
+
E
v
1
[
H
;
H
v
]
=
[
H
;
H
v
]
Z
~
+
[
H
;
H
v
]
Z
v
+
E
v
2
E
v
=
[
E
v
1
;
E
v
2
]
,
P
v
P
v
⊤
=
I
,
Z
~
=
J
Z
v
=
Q
v
−
diag
(
Q
v
)
∀
v
=
1
,
…
,
V
\begin{aligned}\min _{\mathbf{P}_{v}, \mathbf{H}_{v}, \mathbf{Z}_{v}, \mathbf{Q}_{v}, \mathbf{E}_{v}, \widetilde{\mathbf{Z}}, \mathbf{J}, \mathbf{H}} &\|\mathbf{J}\|_{*}+\lambda \sum_{v}\left\|\mathbf{E}_{v}\right\|_{2,1}+\beta \sum_{v}\left\|\mathbf{Q}_{v}\right\|_{1} \\\text { s.t. } & \mathbf{P}_{v} \mathbf{X}_{v}=\left[\mathbf{H} ; \mathbf{H}_{v}\right]+\mathbf{E}_{v}^{1} \\&\left[\mathbf{H} ; \mathbf{H}_{v}\right]=\left[\mathbf{H} ; \mathbf{H}_{v}\right] \widetilde{\mathbf{Z}}+\left[\mathbf{H} ; \mathbf{H}_{v}\right] \mathbf{Z}_{v}+\mathbf{E}_{v}^{2} \\& \mathbf{E}_{v}=\left[\mathbf{E}_{v}^{1} ; \mathbf{E}_{v}^{2}\right], \quad \mathbf{P}_{v} \mathbf{P}_{v}^{\top}=\mathbf{I}, \widetilde{\mathbf{Z}}=\mathbf{J} \\& \mathbf{Z}_{v}=\mathbf{Q}_{v}-\operatorname{diag}\left(\mathbf{Q}_{v}\right) \\& \forall v=1, \ldots, V\end{aligned}
Pv,Hv,Zv,Qv,Ev,Z
,J,Hmin s.t. ∥J∥∗+λv∑∥Ev∥2,1+βv∑∥Qv∥1PvXv=[H;Hv]+Ev1[H;Hv]=[H;Hv]Z
+[H;Hv]Zv+Ev2Ev=[Ev1;Ev2],PvPv⊤=I,Z
=JZv=Qv−diag(Qv)∀v=1,…,V
增广拉格朗日函数:
L
(
P
v
,
H
v
,
Z
v
,
Q
v
,
E
v
,
Z
~
,
J
,
H
)
=
∥
J
∥
∗
+
λ
∑
v
∥
E
v
∥
2
,
1
+
β
∑
v
∥
Z
v
∥
1
+
Φ
(
Y
z
,
Z
~
−
J
)
+
∑
v
Φ
(
Y
v
1
,
P
v
X
v
−
[
H
;
H
v
]
−
E
v
1
)
+
∑
v
Φ
(
Y
v
2
,
[
H
;
H
v
]
−
[
H
;
H
v
]
Z
~
−
[
H
;
H
v
]
Z
v
−
E
v
2
)
+
∑
v
Φ
(
Y
v
3
,
Z
v
−
Q
v
+
diag
(
Q
v
)
)
s.t.
P
v
P
v
⊤
=
I
,
E
v
=
[
E
v
1
;
E
v
2
]
,
∀
v
=
1
,
…
,
V
\begin{array}{l}\mathscr{L}\left(\mathbf{P}_{v}, \mathbf{H}_{v}, \mathbf{Z}_{v}, \mathbf{Q}_{v}, \mathbf{E}_{v}, \widetilde{\mathbf{Z}}, \mathbf{J}, \mathbf{H}\right)=\|\mathbf{J}\|_{*} \\\quad+\lambda \sum_{v}\left\|\mathbf{E}_{v}\right\|_{2,1}+\beta \sum_{v}\left\|\mathbf{Z}_{v}\right\|_{1}+\Phi\left(\mathbf{Y}_{z}, \widetilde{\mathbf{Z}}-\mathbf{J}\right) \\\quad+\sum_{v} \Phi\left(\mathbf{Y}_{v}^{1}, \mathbf{P}_{v} \mathbf{X}_{v}-\left[\mathbf{H} ; \mathbf{H}_{v}\right]-\mathbf{E}_{v}^{1}\right) \\\quad+\sum_{v} \Phi\left(\mathbf{Y}_{v}^{2},\left[\mathbf{H} ; \mathbf{H}_{v}\right]-\left[\mathbf{H} ; \mathbf{H}_{v}\right] \tilde{\mathbf{Z}}-\left[\mathbf{H} ; \mathbf{H}_{v}\right] \mathbf{Z}_{v}-\mathbf{E}_{v}^{2}\right) \\\quad+\sum_{v} \Phi\left(\mathbf{Y}_{v}^{3}, \mathbf{Z}_{v}-\mathbf{Q}_{v}+\operatorname{diag}\left(\mathbf{Q}_{v}\right)\right) \\\text { s.t. } \mathbf{P}_{v} \mathbf{P}_{v}^{\top}=\mathbf{I}, \quad \mathbf{E}_{v}=\left[\mathbf{E}_{v}^{1} ; \mathbf{E}_{v}^{2}\right], \forall v=1, \ldots, V\end{array}
L(Pv,Hv,Zv,Qv,Ev,Z
,J,H)=∥J∥∗+λ∑v∥Ev∥2,1+β∑v∥Zv∥1+Φ(Yz,Z
−J)+∑vΦ(Yv1,PvXv−[H;Hv]−Ev1)+∑vΦ(Yv2,[H;Hv]−[H;Hv]Z~−[H;Hv]Zv−Ev2)+∑vΦ(Yv3,Zv−Qv+diag(Qv)) s.t. PvPv⊤=I,Ev=[Ev1;Ev2],∀v=1,…,V
基于此,将优化问题分为following multiple subproblems
P v − S u b p r o b l e m P_v -Subproblem Pv−Subproblem:
fix
P
v
P_v
Pv, the object function is equivalent to minimizing
min
P
v
Φ
(
Y
v
1
,
P
v
X
v
−
[
H
;
H
v
]
−
E
v
1
)
,
s.t.
P
v
P
v
T
=
I
(9)
\min _{\mathbf{P}_{v}} \Phi\left(\mathbf{Y}_{v}^{1}, \mathbf{P}_{v} \mathbf{X}_{v}-\left[\mathbf{H} ; \mathbf{H}_{v}\right]-\mathbf{E}_{v}^{1}\right), \text { s.t. } \mathbf{P}_{v} \mathbf{P}_{v}^{T}=\mathbf{I}\tag9
PvminΦ(Yv1,PvXv−[H;Hv]−Ev1), s.t. PvPvT=I(9)
包含了矩阵正交约束
Fig.2 说明使用投影操作在低维特征空间中获取共享特征和特定视图特征的处理流程
H v − S u b p r o b l e m H_v -Subproblem Hv−Subproblem:
H v = ( P v c X v − E v 1 , c + Y v 1 , c μ + E v 2 , c Z v ′ ⊤ − Y v 2 , c Z v ′ ⊤ μ ) ( I + Z v ′ Z v ′ ⊤ ) − 1 (12) \begin{aligned}\mathbf{H}_{v}=&\left(\mathbf{P}_{v}^{c} \mathbf{X}_{v}-\mathbf{E}_{v}^{1, c}+\frac{\mathbf{Y}_{v}^{1, c}}{\mu}+\mathbf{E}_{v}^{2, c} \mathbf{Z}_{v}^{\prime \top}-\frac{\mathbf{Y}_{v}^{2, c} \mathbf{Z}_{v}^{\prime \top}}{\mu}\right)\left(\mathbf{I}+\mathbf{Z}_{v}^{\prime} \mathbf{Z}_{v}^{\prime \top}\right)^{-1}\end{aligned}\tag{12} Hv=(PvcXv−Ev1,c+μYv1,c+Ev2,cZv′⊤−μYv2,cZv′⊤)(I+Zv′Zv′⊤)−1(12)
Z v − S u b p r o b l e m Z_v -Subproblem Zv−Subproblem:
Z v = ( B v ⊤ B v + I ) − 1 ( Q v − diag ( Q v ) + B v ⊤ A v + B v ⊤ Y v 2 − Y v 3 μ ) \begin{aligned}\mathbf{Z}_{v}=&\left(\mathbf{B}_{v}^{\top} \mathbf{B}_{v}+\mathbf{I}\right)^{-1} \\&\left(\mathbf{Q}_{v}-\operatorname{diag}\left(\mathbf{Q}_{v}\right)+\mathbf{B}_{v}^{\top} \mathbf{A}_{v}+\frac{\mathbf{B}_{v}^{\top} \mathbf{Y}_{v}^{2}-\mathbf{Y}_{v}^{3}}{\mu}\right)\end{aligned} Zv=(Bv⊤Bv+I)−1(Qv−diag(Qv)+Bv⊤Av+μBv⊤Yv2−Yv3)
Q v − S u b p r o b l e m Q_v -Subproblem Qv−Subproblem:
Q v = Q v ′ − diag ( Q v ′ ) \mathbf{Q}_{v}=\mathbf{Q}_{v}^{\prime}-\operatorname{diag}\left(\mathbf{Q}_{v}^{\prime}\right) Qv=Qv′−diag(Qv′)where Q v ′ = ℑ ( β / μ ) ( Z v + Y v 3 / μ ) \mathbf{Q}_{v}^{\prime}=\Im_{(\beta / \mu)}\left(\mathbf{Z}_{v}+\mathbf{Y}_{v}^{3} / \mu\right) Qv′=ℑ(β/μ)(Zv+Yv3/μ) , ℑ , \Im ,ℑ is an element-wise shrinkage thresholding operator
E v − S u b p r o b l e m E_v -Subproblem Ev−Subproblem:
E v = argmin E v λ ∥ E v ∥ 2 , 1 + Φ ( Y v 1 , P v X v − [ H ; H v ] − E v 1 ) + Φ ( Y v 2 , [ H ; H v ] − [ H ; H v ] Z − [ H ; H v ] Z v − E v 2 ) = argmin E v λ μ ∥ E v ∥ 2 , 1 + 1 2 ∥ E v − G v ∥ F 2 9 (1) \begin{aligned}\mathbf{E}_{v}=& \underset{\mathbf{E}_{v}}{\operatorname{argmin}} \lambda\left\|\mathbf{E}_{v}\right\|_{2,1}+\Phi\left(\mathbf{Y}_{v}^{1}, \mathbf{P}_{v} \mathbf{X}_{v}-\left[\mathbf{H} ; \mathbf{H}_{v}\right]-\mathbf{E}_{v}^{1}\right) \\&+\Phi\left(\mathbf{Y}_{v}^{2},\left[\mathbf{H} ; \mathbf{H}_{v}\right]-\left[\mathbf{H} ; \mathbf{H}_{v}\right] \mathbf{Z}-\left[\mathbf{H} ; \mathbf{H}_{v}\right] \mathbf{Z}_{v}-\mathbf{E}_{v}^{2}\right) \\=& \underset{\mathbf{E}_{v}}{\operatorname{argmin}} \frac{\lambda}{\mu}\left\|\mathbf{E}_{v}\right\|_{2,1}+\frac{1}{2}\left\|\mathbf{E}_{v}-\mathbf{G}_{v}\right\|_{F}^{2}\end{aligned}\tag19 Ev==Evargminλ∥Ev∥2,1+Φ(Yv1,PvXv−[H;Hv]−Ev1)+Φ(Yv2,[H;Hv]−[H;Hv]Z−[H;Hv]Zv−Ev2)Evargminμλ∥Ev∥2,1+21∥Ev−Gv∥F29(1) where G v G_v Gv id formed by vertically concatenating the matrices P v X v − [ H ; H v ] + Y v 1 / μ \mathbf{P}_{v} \mathbf{X}_{v}-\left[\mathbf{H} ; \mathbf{H}_{v}\right]+\mathbf{Y}_{v}^{1} / \mu PvXv−[H;Hv]+Yv1/μ and [ H ; H v ] − [ H ; H v ] Z ~ − [ H ; H v ] Z v + Y v 2 / μ \left[\mathbf{H} ; \mathbf{H}_{v}\right]-\left[\mathbf{H} ; \mathbf{H}_{v}\right] \widetilde{\mathbf{Z}}-\left[\mathbf{H} ; \mathbf{H}_{v}\right] \mathbf{Z}_{v}+\mathbf{Y}^2_v/\mu [H;Hv]−[H;Hv]Z −[H;Hv]Zv+Yv2/μ
J − S u b p r o b l e m J-Subproblem J−Subproblem:
min J 1 μ ∥ J ∥ ∗ + 1 2 ∥ J − ( Z ~ + Y z / μ ) ∥ F 2 \min _{\mathbf{J}} \frac{1}{\mu}\|\mathbf{J}\|_{*}+\frac{1}{2}\left\|\mathbf{J}-\left(\widetilde{\mathbf{Z}}+\mathbf{Y}_{z} / \mu\right)\right\|_{F}^{2} Jminμ1∥J∥∗+21∥∥∥J−(Z +Yz/μ)∥∥∥F2
Z ~ − S u b p r o b l e m \widetilde{Z} -Subproblem Z −Subproblem:
Z ~ = ( I + ∑ v D v ⊤ D v ) − 1 ( J − Y z μ + ∑ v D v ⊤ ( C v + Y v 2 μ ) ) \widetilde{\mathbf{Z}}=\left(\mathbf{I}+\sum_{v} \mathbf{D}_{v}^{\top} \mathbf{D}_{v}\right)^{-1}\left(\mathbf{J}-\frac{\mathbf{Y}_{z}}{\mu}+\sum_{v} \mathbf{D}_{v}^{\top}\left(\mathbf{C}_{v}+\frac{\mathbf{Y}_{v}^{2}}{\mu}\right)\right) Z =(I+v∑Dv⊤Dv)−1(J−μYz+v∑Dv⊤(Cv+μYv2))where KaTeX parse error: \tag works only in display equations
H − S u b p r o b l e m H -Subproblem H−Subproblem:
be dropping some of the unrelated terms, optimize H as: H = ∑ v ( P v S X v − E v 1 , s + Y v 1 , s μ + E v 2 , s Z v ′ ⊤ − Y v 2 , s Z v ′ ⊤ μ ) ( ∑ v ( I + Z v ′ Z v ′ ⊤ ) ) − 1 (26) \begin{aligned}\mathbf{H}=& \sum_{v}\left(\mathbf{P}_{v}^{S} \mathbf{X}_{v}-\mathbf{E}_{v}^{1, s}+\frac{\mathbf{Y}_{v}^{1, s}}{\mu}+\mathbf{E}_{v}^{2, s} \mathbf{Z}_{v}^{\prime \top}-\frac{\mathbf{Y}_{v}^{2, s} \mathbf{Z}_{v}^{\prime \top}}{\mu}\right) \left(\sum_{v}\left(\mathbf{I}+\mathbf{Z}_{v}^{\prime} \mathbf{Z}_{v}^{\prime \top}\right)\right)^{-1}\end{aligned}\tag{26} H=v∑(PvSXv−Ev1,s+μYv1,s+Ev2,sZv′⊤−μYv2,sZv′⊤)(v∑(I+Zv′Zv′⊤))−1(26)where Z v ′ = I − Z ~ − Z v \mathbf{Z}_{v}^{\prime}=\mathbf{I}-\widetilde{\mathbf{Z}}-\mathbf{Z}_{v} Zv′=I−Z −Zv
M u l t i p l i e r : Multiplier: Multiplier:
all multipliers Y z , Y v 1 , Y v 2 , a n d Y v 3 ( v = 1 , . . . , V ) \mathbf{Y}_z,\mathbf{Y}_v^1,\mathbf{Y}^2_v,and\mathbf{Y}_v^3(v=1, ... ,V) Yz,Yv1,Yv2,andYv3(v=1,...,V) can be updated by { Y z : = Y z + μ ( Z ~ − J ) Y v 1 : = Y v 1 + μ ( P v X v − [ H ; H v ] − E v 1 ) Y v 2 : = Y v 2 + μ ( [ H ; H v ] − [ H ; H v ] Z ~ − [ H ; H v ] Z v − E v 2 ) Y v 3 : = Y v 3 + μ ( Z v − Q v + diag ( Q v ) ) (27) \left\{\begin{array}{l}\mathbf{Y}_{z}:=\mathbf{Y}_{z}+\mu(\widetilde{\mathbf{Z}}-\mathbf{J}) \\\mathbf{Y}_{v}^{1}:=\mathbf{Y}_{v}^{1}+\mu\left(\mathbf{P}_{v} \mathbf{X}_{v}-\left[\mathbf{H} ; \mathbf{H}_{v}\right]-\mathbf{E}_{v}^{1}\right) \\\mathbf{Y}_{v}^{2}:=\mathbf{Y}_{v}^{2}+\mu\left(\left[\mathbf{H} ; \mathbf{H}_{v}\right]-\left[\mathbf{H} ; \mathbf{H}_{v}\right] \tilde{\mathbf{Z}}-\left[\mathbf{H} ; \mathbf{H}_{v}\right] \mathbf{Z}_{v}-\mathbf{E}_{v}^{2}\right) \\\mathbf{Y}_{v}^{3}:=\mathbf{Y}_{v}^{3}+\mu\left(\mathbf{Z}_{v}-\mathbf{Q}_{v}+\operatorname{diag}\left(\mathbf{Q}_{v}\right)\right)\end{array}\right. \tag{27} ⎩⎪⎪⎪⎨⎪⎪⎪⎧Yz:=Yz+μ(Z −J)Yv1:=Yv1+μ(PvXv−[H;Hv]−Ev1)Yv2:=Yv2+μ([H;Hv]−[H;Hv]Z~−[H;Hv]Zv−Ev2)Yv3:=Yv3+μ(Zv−Qv+diag(Qv))(27)
Algorithm
Personal Review
先将input线性投影,投影后的式子进行扩展分为了shared components and specific feature of each single view.接着推出多视角低维度表达模型,,最后就得出了融合了共享和特定视角的目标函数
其主要思想就是将输入分为共享的和特定的 ,然后再找到目标函数,使得Loss function 最小