笔记:Tensor RPCA: Exact recovery of corrupted low-rank tensors via convex optimization

58 篇文章 6 订阅
49 篇文章 0 订阅

Lu, C., et al., Tensor robust principal component analysis: Exact recovery of corrupted low-rank tensors via convex optimization, in IEEE Conference on Computer Vision and Pattern Recognition. 2016. p. 5249–5257.
本文是这篇 CVPR 会议论文的笔记,主要是对文中的理论方法进行展开详解。本人学术水平有限,文中如有错误之处,敬请指正。

摘要: 此文研究的问题是 Tensor Robust Principal Component Analysis (TRPCA) 问题,其扩展自矩阵的 RPCA 条件。此文的模型基于一个全新的 tensor 奇异值分解(t-SVD),以及其衍生出的 tubal rank 和 tensor 核范数 。考虑已有一个 3 维的 tensor XRn1×n2×n3 ,并满足 X=L0+S0 ,其中 L0 是低秩部分而 S0 是稀疏部分。有没有可能同时恢复出两个部分?此文中,作者证明了在特定的合适假设下,可以精确地恢复出低秩和稀疏的部分,通过求解一个凸优化问题,其目标函数为一个核范数和一个 1 范数的加权和,即

minL,S ||L||+λ||S||1,  s.t.  X=L+S,

其中 λ=1/max(n1,n2)n3 。另外,TRPCA 在 n3=1 时就是二维的 RPCA 的简单的优雅的扩展而已。

简介

一个在高维的数据中探索低维结构的问题在图像、文本和视频处理中已经越来越重要,还包括网页搜索,这些数据都是存在于非常高维的数据空间中。经典的 PCA 1 被广泛用于数据分析和维度降低的统计工具中。其计算非常高效,对小的噪声破坏的数据。然而,PCA 最大的问题是对严重的损坏或离异值的观察很脆弱,这些都是真实的数据中随处可见的。虽然很多改进版本的 PCA 被提出了,但是它们均有这很高昂的计算代价。

最近提出的 robust PCA 2 是第一个能实现多项式时间的算法,并有较强的性能保证。假设给定一个数据矩阵 XRn1×n2 ,其可以被分解为 X=L0+E0 ,其中 L0 是低秩的, E0 是稀疏的。[2] 表明如果 L0 的奇异向量满足一些非相干性,而 L0 是低秩的并且 E0 是稀疏的, L0 E0 可以很大概率被恢复,通过求解如下的凸问题

minL,E ||L||+λ||E||1,  s.t.  X=L+E,(1)

其中 ||L|| 表示核范数( L 的奇异值之和), ||E||1 表示 1 范数( E 中所有元素的绝对值之和), λ=1/max(n1,n2) 。RPCA 及其扩展已经被成功用于背景建模 [2],视频恢复 3,图像对齐 4 等。

RPCA 的一个主要缺点是其只能处理二维的数据(矩阵)。然而,真实的数据随处可见是高维的,也被记为 tensor 。比如,一幅彩色的图像是一个三维的;一个灰度的视频(两个空间变量,一个时间变量)。为了使用 RPCA,首先要将多维的数据重新转化为矩阵。这样的预处理通常会导致信息损失,造成性能下降。为了改善这样的问题,通常的办法是在高维的数据上进行操作,利用多维结构的优势。

此文中,研究的是 Tensor RPCA,旨在准确地恢复出低秩地 tensor,分离出稀疏地误差,如图所示。

这里写图片描述

更具体地来说,给定一个 tensor 数据 X ,并知道其可以被分解为

X=L0+E0,(2)

这里 L0 是低秩的, E0 是稀疏的,它们均可以是任意的大小。注意的是这里并不知道 E0 中非零元素的位置,也不知道其数量有多少。考虑的问题是如何高效地分离并恢复出低秩部分和稀疏部分?

期望的是将 low-rank matrix recovery 扩展到 tensor 的情况。然而,这并不容易。主要的问题是如何定义 tensor 的秩,和矩阵的秩不同,它并不能很容易给定。已经有好几种 tensor rank 的定义提出,每种都有缺陷。例如,CP rank 5,定义为秩一 tensor 分解之后的最小值,计算是 NP-hard 。另一个是 Tucker rank [5] 和其凸松弛。对于一个 k 维的 tensor X ,Tucker rank 是一个向量: ranktc(X):=(rank(X(1)),rank(X(2)),,rank(X(k))) ,其中 X(i) X 的模 i 的矩阵化。Tucker rank 是基于矩阵的秩,所以是可以计算的。受启发于核范数是是矩阵的秩的凸包络在谱范数的单位球中,核范数之和(the Sum of Nuclear Norms, SNN)6,定义为 i||X(i)|| ,用作 Tucker rank 的凸松弛。此方法的有效性已经被大量研究证明 [6] 7 8 9 。然而 SNN 并不是一个紧凑的 Tucker rank 的凸松弛。10 中考虑低秩 tensor 补全问题,基于 SNN,

minX i=1k||X(i)||  s.t.  PΩ(X)=PΩ(X0),(3)

其中 PΩ(X0) 是一个不全的 tensor,观测到的元素于 Ω 中。[10] 中表明模型 (3) 是次优的:可靠地恢复一个 k 维的长度为 n 的 tensor,和 Tucker rank (r,r,,r) ,从高斯观察中,这需要 O(rnk1) 观测量。相反,一个不合适的非凸的优化只需要 O(rK+nrK) 观测量。[10] 还提出了一个更好的凸优化基于平衡的矩阵化,提升了边界到 O(rk/2nk/2) 。它更优于 (3) 在小的 r k4 中。但还是远不及非凸的模型。另一个基于 SNN 的模型 11
minL,Es.t. i=1kλi||L(i)||+||E||1+τ2||L||2F+τ2||E||2F  X=L+E,  XRn1×n2××nk,(4)

其中 ||E||1 E 中所有的元素的绝对值之和。在特定的 tensor 非相干性条件下,首先给出了恢复保证。

最近,12 提出了 tensor tubal rank,基于一个新的 tensor 分解机制 13 14,也被记为 tensor SVD (t-SVD) 。其中定义了一个新的 tensor-tensor 乘积,与矩阵的情况类似。tensor 核范数 15 用于代替 tubal rank 求解 low-rank tensor completion 问题

minX ||X||  s.t.  PΩ(X)=PΩ(X0).(5)

在此文中,研究的是 TRPCA 问题,其旨在恢复出 L0 和 稀疏部分 E0 X=L0+E0Rn1×n2×n3 ,通过求解凸优化问题
minL,E ||L||+λ||E||1  s.t.  X=L+E.(6)

此文证明只要 L0 的值不太大,并且 E0 是足够稀疏的,该模型 (6) 是可以完美地恢复出低秩部分和稀疏部分。 (6) 中没有需要调节的参数。 λ=1/max(n1,n2)n3 就能确保恢复准确性。如果 n3=1 ,那么 TRPCA (6) 就简化成了 RPCA (1) 。另一个优势是,其可以被多项式时间算法解决,即交替乘子法 ADMM 16

符号与标记

符号含义
A tensor
A 矩阵
a 向量
a 标量
In 单位矩阵
R,C 实数域,复数域
Aijk aijk i,j,k 个元素
A(i,:,:), A(:,i,:), A(:,:,i) i 个水平,侧向,正面的切片
A(i)=A(:,:,i) i 个正面的切片
A(i,j,:) 管道
A,B=tr(AB) 矩阵的内积
A,B=n3i=1A(i),B(i) tensor 的内积
||A||1=ijk|aijk| 1 范数
||A||=maxijk|aijk| 无穷范数
||A||F=ijk|aijk|2 Frobenius 范数
||v||2=i|vi|2 2 范数
||A||=maxiσi(A) 谱范数, σi(A) 是矩阵的最大奇异值
||A||=iσi(A) 核范数,奇异值之和
A¯=fft(A,[],3) 离散傅里叶变换
A=ifft(A¯,[],3) 离散傅里叶反变换
A¯=bdiag(A¯)=A¯(1)A¯(2)A¯(n3)
块对角矩阵 ,每一个对角块都是一个 A¯ 的正面切片
bcirc(A)=A(1)A(2)A(n3)A(n3)A(1)A(n31)A(2)A(3)A(1)
块循环矩阵 bcirc(A)Rn1n3×n2n3
unfold(A)=A(1)A(2)A(n3),  fold(unfold(A))=A
展开操作和逆操作

 
t-product    ARn1×n2×n3 BRn2×l×n3 ,那么有如下定义

AB=fold(bcirc(A)unfold(B))Rn1×l×n3.(7)

一个维度大小为 n1×n2×n3 的三维 tensor 可以被看作一个 n1×n2 矩阵,其中的每一个元素都是一个沿着第三维的管道。所以,t-product 类似矩阵的乘积,除了循环卷积代替了两个元素的乘积。当 n3=1 时,t-product 简化为矩阵的乘积。所以 RPCA 可以被看作 TRPCA 的一种特殊情况。

共轭转置   ARn2×n1×n3 是一个 tensor ARn1×n2×n3 的共轭转置。其中需要将每一个正面的切片进行共轭转置,并将转置后的切片从第 2 个到 第 n3 个切片的顺序逆转 (第一张切片位置不变)。

单位 tensor   IRn×n×n3 ,其第一个正面切片是一个 n×n 单位矩阵,而其他切片矩阵都为零。

正交 tensor    tensor QRn×n×n3 是正交的如果其满足

QQ=QQ=I.(8)

F-对角 tensor    一个 tensor 的每一个正面的切片都是对角矩阵。

T-SVD    ARn1×n2×n3 ,其可以被分解为

A=USV,(9)

其中 URn1×n1×n3 VRn2×n2×n3 都是正交的, SRn1×n2×n3 是一个 f-对角 tensor 。

这里写图片描述

这里写图片描述

注意的是 t-SVD 可以在 傅里叶域内通过矩阵的 SVD 高效地计算得到。根据一个关键的性质:块循环矩阵可以被映射到一个傅里叶域的块对角矩阵,即

(Fn3In1)bcirc(A)(FHn3In2)=A¯,(10)

其中 Fn3 表示 n3×n3 的离散傅里叶变换矩阵, 表示 Kronecker 积。接着,可以对每一个 A¯ 正面的切片进行 SVD 分解操作,即 A¯(i)=U¯(i)S¯(i)V¯(i) ,其中 U¯(i),S¯(i),V¯(i) 分别是 U¯,S¯,V¯ 的正面切片。或者等价的, A¯=U¯S¯V¯ 。在对沿着第三维进行傅里叶反变换之后,可以得到 U=ifft(U¯,[],3),S=ifft(S¯,[],3),V=ifft(V¯,[],3)

Tensor multi rank 和 tubal rank    ARn1×n2×n3 的 multi rank 定义为一个向量,其第 i 个元素的值是 A¯ i 个正面的切片的秩,即 ri=rank(A¯(i)) 。tubal rank 定义为 rankt(A) ,也就是 S 中非零 tube 的个数。 A=USV

rankt(A)=#{i:S(i,i,:)0}=maxi ri.(11)

另外还有一些性质 rankt(A)min(n1,n2), rankt(AB)min(rankt(A),rankt(B))

Tensor 核范数    定义为所有正面切片的矩阵核范数的平均值, ||A||:=1n3n3i=1||A¯(i)|| 。这里有一个因子 1/n3 ,此文提出的模型与之前的研究不同。该 tensor 核范数定义在傅里叶变换域,那么其非常接近原来的块循环矩阵的核范数,如下

||A||=1n3i=1n3||A¯(i)||=1n3||A¯||=1n3||(Fn3In1)bcirc(A)(FHn3In2)||=1n3||bcirc(A)||.(12)

(12) 给出了一个直接的关系式,计算 tensor 核范数,块循环矩阵非常的重要。

Tensor 谱范数    谱范数定义为 ||A||:=||A¯|| ,矩阵的最大奇异值。

Tensor 标准基    列基,记为 e˚i 是一个 n×1×n3 的 tensor,其中第 (i,1,1) 个元素值为 1,其他都为零。那么其转置 e˚ 是行基。tube 基,记为 e˙k 是一个 1×1×n3 的 tensor,其第 (1,1,k) 个元素等于1,而其他都为零。为了方便,记 eijk=e˚ie˙je˚k ,并且有 A=ijkeijk,Aeijk=ijkaijkeijk

这里写图片描述

Tensor 非相干条件    对于 L0Rn1×n2×n3 ,假设 rankt(L0)=r ,并其 skinny t-SVD L0=USV ,其中 URn1×r×n3 VRn2×r×n3 满足 UU=I, VV=I ,并且 SRr×r×n3 是一个 f-对角 tensor 。 L0 会满足 tensor 非相干条件,如果

maxi=1,,n1 ||Ue˚i||Fμrn1n3,  maxj=1,,n2 ||Ve˚j||Fμrn2n3,(13)

||UV||μrn1n2n23.(14)


算法 1 求解 (6) 通过 ADMM
输入: tensor 数据 X ,参数 λ
初始化: L0=S0=Y0=0, ρ=1.1, μ0=1e3, μmax=1e10, ϵ=1e8
while not converged do
1. 更新 Lk+1

Lk+1=argminL ||L||+μk2L+EkX+Ykμk2F;

2. 更新 Ek+1
Ek+1=argminE λ||E||1+μk2Lk+1+EX+Ykμk2F;

3. Yk+1=Yk+μk(Lk+1+Ek+1X)
4. 更新 μk+1=min(ρμk,μmax)
5. 检查收敛条件:
||Lk+1Lk||ϵ, ||Ek+1Ek||ϵ, ||Lk+1+Ek+1X||ϵ.

end while


实验

详见原文


  1. I. Jolliffe. Principal component analysis. Wiley Online Library, 2002.
  2. E. J. Cand`es, X. D. Li, Y. Ma, and J. Wright. Robust principal component analysis? Journal of the ACM, 58(3), 2011.
  3. H. Ji, S. Huang, Z. Shen, and Y. Xu. Robust video restoration by joint sparse and low rank matrix approximation. SIAM Journal on Imaging Sciences, 4(4):1122–1142, 2011.
  4. Y. Peng, A. Ganesh, J. Wright, W. Xu, and Y. Ma. RASL: Robust alignment by sparse and low-rank decomposition for linearly correlated images. TPAMI, 34(11):2233–2246, 2012.
  5. T. G. Kolda and B. W. Bader. Tensor decompositions and applications. SIAM Review, 51(3):455–500, 2009.
  6. J. Liu, P. Musialski, P. Wonka, and J. Ye. Tensor completion for estimating missing values in visual data. TPAMI, 35(1):208–220, 2013.
  7. S. Gandy, B. Recht, and I. Yamada. Tensor completion and low-n-rank tensor recovery via convex optimization. Inverse Problems, 27(2):025010, 2011.
  8. M. Signoretto, Q. T. Dinh, L. De Lathauwer, and J. A. Suykens. Learning with tensors: a framework based on convex optimization and spectral regularization. Machine Learning, 94(3):303–351, 2014.
  9. R. Tomioka, K. Hayashi, and H. Kashima. Estimation of low-rank tensors via convex optimization. arXiv preprint arXiv:1010.0789, 2010.
  10. C. Mu, B. Huang, J. Wright, and D. Goldfarb. Square deal: Lower bounds and improved relaxations for tensor recovery. arXiv preprint arXiv:1307.5870, 2013.
  11. B. Huang, C. Mu, D. Goldfarb, and J. Wright. Provable low-rank tensor recovery. Optimization-Online, 4252, 2014.
  12. Z. Zhang, G. Ely, S. Aeron, N. Hao, and M. Kilmer. Novel methods for multilinear data completion and de-noising based on tensor-SVD. In CVPR, pages 3842–3849. IEEE, 2014.
  13. K. Braman. Third-order tensors as linear operators on a space of matrices. Linear Algebra and its Applications, 433(7):1241–1253, 2010.
  14. M. E. Kilmer and C. D. Martin. Factorization strategies for third-order tensors. Linear Algebra and its Applications, 435(3):641–658, 2011.
  15. O. Semerci, N. Hao, M. E. Kilmer, and E. L. Miller. Tensorbased formulation and nuclear norm regularization for multienergy computed tomography. TIP, 23(4):1678–1693, 2014.
  16. S. Boyd, N. Parikh, E. Chu, B. Peleato, and J. Eckstein. Distributed optimization and statistical learning via the alternating direction method of multipliers. Foundations and Trends ® in Machine Learning, 3(1):1–122, 2011.
  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值