笔记:Matrix completion by Truncated Nuclear Norm Regularization

Zhang, D., Hu, Y., Ye, J., Li, X., & He, X. (2012, June). Matrix completion by truncated nuclear norm regularization. In IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 2192-2199.
本文是这篇 CVPR 会议论文的笔记,主要是对文中的理论方法进行展开详解。本人学术水平有限,文中如有错误之处,敬请指正。
另外:这篇会议论文于 2013 年发表于 PAMI 期刊上,两篇 paper 的内容基本一致。
Hu, Y., Zhang, D., Ye, J., Li, X., & He, X. (2013). Fast and accurate matrix completion via truncated nuclear norm regularization. IEEE Transactions on Pattern Analysis and Machine Intelligence, 35(9), 2117-2130.

摘要:估计视觉图像中缺失的值是计算机视觉中有挑战的问题,其可以被认为是一个低秩的近似问题。大部分的研究都是用核范数来代替秩操作。然而,在核范数最小化过程中,所有的奇异值一起被最小化,在实际中秩不能被很好地近似。此文提出了一种 Truncated Nuclear Norm Regularization (TNNR) 方法,只最小化较小的 Nr 个部分奇异值,其中 N 是奇异值的总个数,r 是矩阵的秩。这样可以更好地近似矩阵的秩。此文更设计了两种高效的优化算法,alternating direction method of multipliers (ADMM) 和 accelerated proximal gradient line search (APGL) 方法。

图像大小为 400x500,但是主要信息集中于前 20 个特征值

1 简介

在许多的实际的计算视觉和模式识别中,比如图像恢复,数据中有丢失的部分。估计这些矩阵中丢失值得问题,即矩阵补全,已经受到了相当多的关注。视觉数据,,比如图像,有可能是低秩的,如图所示。于是,大部分的矩阵补全问题都旨在找到一个低秩的近似问题。具体的,给定一个不完整的数据 MRm×n ,矩阵补全问题可被阐述为

minX s.t. rank(X)Xij=Mij, (i,j) Ω,(1)

其中 XRm×n Ω 是已知的元素的对应的位置集合。

然而, 以上的秩最小化问题是 NP-hard,因为其非凸性和不连续性。一种广泛采用的方法是核范数,即奇异值之和,作为一个凸的代替方法。受压缩感知的启发, Cand e` s 和 Recht 最近提出,如果矩阵的行空间和列空间是与标准基不一致的,那么核范数最小化可以恢复出矩阵,如果有足够的已知的元素。

已有的核范数方法,比如 singular value thresholding (SVT 1),能够在无噪声的合成数据中获得较好的表现。然而,它们在真实的应用中不能得到低秩的解。这是因为核范数不能精确地近似秩函数。具体地,对比秩函数来说,所有的非零的奇异值都被平等处理,核范数则并不是。更差的是,这些方法优势甚至不收敛。因为核范数的理论的要求(比如不一致的性质)在实际中很难被满足。

此文提出了一种新的矩阵补全的方法,truncated nuclear norm regularization (TNNR),来恢复矩阵中一些缺失的数据。于一般核范数的方法不同的是,并不是同时最小化所有奇异值的和,此文的方法仅最小化较小的 min(m,n)r 个奇异值。这样,该方法可以获得一个更精确、鲁棒性的对秩函数的近似。此外,此文提出了两种简单的,高效的优化机制解决目标函数,即 alternating direction method of multipliers (ADMM) 2 和 accelerated proximal gradient line search method (APGL) 3

2 相关工作

稀疏表示,低秩矩阵分解相关,略

3 Truncated Nuclear Norm Regularization

X=(x,,xn) 成为一个 m×n 矩阵, Ω{1,,m}×{1,,n} 表示矩阵 X 中已知元素的索引, Ωc 表示缺失元素的索引。可以方便的表示已知的元素

(XΩ)ij={Xij,0,if (i,j)Ω,if (i,j)Ωc.(2)

正如之前描述的,核范数不能确保很好的近似秩函数在实际中。首先介绍一个定义
定义 3.1 给定一个矩阵 XRm×n ,truncated nuclear norm ||X||r 定义为最小的 min(m,n)r 个奇异值之和,也就是 ||X||r=min(m,n)i=r+1σi(X) 。于是,目标函数可以写为
minXs.t.||X||r  XΩ=MΩ.(3)

明显与传统的核范数不同,求解该问题一直可以得到低秩解,只要其存在。由于 ||X||r 是非凸的,不容易直接求解。于是,有如下的定义。
Theorem 3.1 对于给定的矩阵 XRm×n ARm×m BRm×n ,和 AAT=I, BBT=I 。对于正的整数 rmin(m,n) ,我们有
tr(AXBT)i=1rσi(X).(4)

证明 根据 Von Neumann 迹不等式,我们得到
tr(AXBT)=tr(XBTA)i=1min(m,n)σi(X)σi(BTA),(5)

其中 σ1(X)σmin(m,n)(X)0 。由于 rank(A)=r rank(B)=r ,所以有 rank(BTA)=sr 。对于 is σi(BTA)>0 σ2i(BTA) 是矩阵 BTAATB=BTB 的第 i 个特征值,也是 BTB=I 的一个特征值。所以 σi(BTA)=1 ,对 i=1,2,,r ,其余的都是 0
i=1min(m,n)σi(X)σi(BTA)=i=1sσi(X)σi(BTA)+i=s+1min(m,n)σi(X)σi(BTA)=i=1sσi(X)1+i=s+1min(m,n)σi(X)0=i=1sσi(X).(6)

因为 sr σi(X)>0 si=1σi(X)ri=1σi(X) 。结合上述不等式,可以证明得到
tr(AXBT)i=1sσi(X)i=1rσi(X).(7)

假设 UΣVT 是矩阵 X 的奇异值分解,其中 U=(u1,,um)Rm×m ΣRm×n ,和 V=(v1,,vn)Rn×n 。那么有如下
A=(u1,,ur)T, B=(v1,,vr)T.(8)

因为
tr((u1,,ur)TX(v1,,vr))=tr((u1,,ur)TUΣVT(v1,,vr))=tr(((u1,,ur)TU)Σ(VT(v1,,vr)))=tr(diag(σ1(X),,σr(X),0,,0))=i=1rσi(X).(9)

结合上述公式,可以得到
maxAAT=BBT=I tr(AXBT)=i=1rσi(X).(10)

接着有
||X||maxAAT=BBT=I tr(AXBT)=i=1min(m,n)σi(X)i=1rσi(X)=||X||r.(11)

于是,优化问题可以被重写为
minXs.t. ||X||maxAAT=BBT=I tr(AXBT) XΩ=MΩ,(12)

其中 ARr×m BRr×n 。基于此,此文设计一个简单但是有效的迭代机制。令 X1=MΩ 为初始化,在第 次迭代中,首先固定 X ,计算 A B ,借由 X 的奇异值分解。接着,固定 A B ,更新 X+1 通过一个更简单的问题
minXs.t. ||X||tr(AXBT)XΩ=MΩ,(13)

已知 ARr×m BRr×n 和观测到的矩阵 MΩ 。算法步骤总结于 Algorithm 1 中。通过反复迭代更新这两步,其可以收敛至局部最小值。


Algorithm 1 TNNR
Input: 原始的不完整的矩阵 MΩ , 其中 Ω 是已知元素的对应的位置,容限 ϵ
Initialize: X1=MΩ
repeat
Step 1 给定一个 X

[U,Σ,V]=svd(X),

其中 U=(u1,,um)Rm×m V=(v1,,vn)Rn×n
计算 A B 如下
A=(u1,,ur)T, B=(v1,,vr)T.

Step 2 求解
X+1=argminX ||X||tr(AXBT)s.t.XΩ=MΩ.

until ||X+1X||Fϵ
Return 恢复的矩阵。


4 优化

需要设计一个有效的优化算法。因为 ||X|| tr(AXBT) 都是凸的,目标函数也是凸的。接下来介绍两种优化机制:増广 Lagrange 乘子法 (ADMM)和加速近似梯度法(APGL)。首先介绍一个非常有用的函数,singular value shrinkage operator 4
定义矩阵 XRm×n ,秩为 r ,的奇异值分解

X=UΣVT, Σ=diag({σi}1ir).(14)

这里定义 singular value shrinkage 操作

Dτ(X)=UDτ(Σ)VT, Dτ(Σ)=diag({σiτ}+).(15)

对于每一个 τ0 YRm×n ,这里有
Dτ(Y)=argminX 12||XY||2F+τ||X||.(16)

4.1 ADMM 优化

将优化目标问题写为

minX,Ws.t.  ||X||tr(AWBT)  X=W, WΩ=MΩ.(17)

其对应的 Lagrange 函数 可以写为
L(X,Y,W)=||X||tr(AWBT)+ρ2||XW||2F+tr(YT(XW)),(18)

其中 ρ 是一个正的标量。给定初始值, X1=MΩ W1=X1 Y1=X1 ,优化过程可以分为 3 步:
计算 Xk+1 : 固定 Wk Yk ,最小化求解 L(X,Yk,Wk)
Xk+1=argminX ||X||tr(AWkBT)+ρ2||XWk||2F+tr(YTk(XWk)).(19)

略去其他常数项,可以化简为
Xk+1=argminX ||X||+ρ2||X(Wk1ρYk)||2F.(20)

结合 SVT 操作,可以解得
Xk+1=D1ρ(Wk1ρYk).(21)

(2) 计算 Wk+1 : 固定 Xk+1 Yk ,最小化求解 Wk+1=argminW L(Xk+1,Yk,W) 。这是一个二次函数,令其梯度等于 0 ,可以得到

Wk+1=Xk+1+1ρ(ATB+Yk).(22)

固定已知的值,只更新未知部分的值

Wk+1=(Wk+1)Ωc+MΩ.(23)

(3) 计算 Yk+1 : 固定 Xk+1 Wk+1 ,只需要计算

Yk+1=Yk+ρ(Xk+1Wk+1).(24)

全部的优化步骤总结于 Algorithm 2 中。


Algorithm 2: ADMM 优化过程
Input: A B MΩ 和 容限阈值 ϵ
Initialize: X1=MΩ W1=X1 Y1=X1 ρ=1
repeat
Step 1: Xk+1=D1ρ(Wk1ρYk) .
Step 2: Wk+1=Xk+1+1ρ(ATB+Yk) .
固定已知的值,只更新未知部分的值

Wk+1=(Wk+1)Ωc+MΩ.

Step 3: Yk+1=Yk+ρ(Xk+1Wk+1) .
until ||Xk+1Xk||Fϵ .


APGL 优化

实际上,ADMM 是硬约束问题。考虑到实际应用中的有噪声的数据,采用如下的松弛约束问题更有利

minX ||X||tr(AXBT)+λ2||XΩMΩ||2F,(25)

其中 λ>0

APGL 解决如下形式的问题

minX g(X)+f(X),(26)

其中 g 是闭的,凸的,可能不可微的函数,f 是凸的,可微的函数。首先对任意的 t>0 ,APGL方法构建一个 F(Y) 在固定点 Y 的近似
Q(X,Y)=f(Y)+XY,f(Y)+12t||XY||2F+g(X).(27)

APGL 通过迭代优化,更新变量 X Y t 来求解。在第 k 次迭代中,更新 Xk+1 如下
Xk+1=argminX Q(X,Yk)=argminX g(X)+12tk||X(Yktkf(Yk))||2F.(28)

在原优化目标中,令 g(X)=||X|| f(X)=tr(AXBT)+λ2||XΩMΩ||2F 。根据上述定理,可以得到
Xk+1=argminX ||X||+12tk||X(Yktkf(Yk))||2F=Dtk(Yk+tk(ATBλ((Yk)ΩMΩ))).(29)

最后, Yk+1 tk+1 按如下的方式更新
Yk+1tk+1=Xk+1+tk1tk+1(Xk+1Xk),=1+1+4t2k2.(30)(31)

算法步骤总结于 Algorithm 3 中。由于松弛了硬约束 XΩ=MΩ Algorithm 3 更适合于处理噪声数据。另外, Algorithm 3 中有非常快的收敛速度 O(1k2)


Algorithm 3: APGL 优化过程
Input: A B MΩ 和 容限阈值 ϵ
Initialize: t1=1 X1=MΩ Y1=X1
repeat
Step 1: Xk+1=Dtk(Yk+tk(ATBλ((Yk)ΩMΩ))) .
Step 2: tk+1=1+1+4t2k2 .
Step 3: Yk+1=Xk+1+tk1tk+1(Xk+1Xk) .
until ||Xk+1Xk||Fϵ .


5 实验

此算法可以对图像中确实的部分像素值进行补全,需要知道的条件除了残缺的图像之外,还需要知道确实部分的位置信息,即每一个像素的在图像中的坐标索引。
这里写图片描述
原文中并没有交代参数 r ,i.e. 截取的奇异值的个数,如何选择。不同的图像对 r 的选择是不同的,在没有先验知识的情况下,只能通过设定一个范围 [1,30] 手动搜索最优值。另外,对于此文的两种优化方法,可以发现 APGL 明显在速度上有极大的优势,对于 ADMM 。

6 结论

此文提出了一种新的 Truncated Nuclear Norm Regularization 方法,用于估计图像中缺失的部分像素值,也就是矩阵补全问题。与传统的核范数(考虑所有的奇异值)不同,此文的方法只考虑最小的 min(m,n)r 个奇异值,使得该方法能够更好的近似矩阵的秩函数。此文中还介绍了两种优化目标函数的方法,ADMM 和 APGL 。实验设计于合成的数据和真实的数据中,将 TNNR 方法和其他方法进行比较,得出其优势的效果。


  1. J. F. Cai, E. J. Cand`es, and Z. Shen. A singular value thresholding algorithm for matrix completion. SIAM Journal on Optimization, 20:1956–1982, 2010.
  2. Lin, Z., R. Liu and Z. Su, Linearized Alternating Direction Method with Adaptive Penalty for Low-Rank Representation, in Advances in Neural Information Processing Systems. 2011. p. 612–620.
  3. Toh, K.C. and S. Yun, An accelerated proximal gradient algorithm for nuclear norm regularized linear least squares problems. Pacific Journal of optimization, 2010. 6(15): p. 615–640.
  4. J. F. Cai, E. J. Cand`es, and Z. Shen. A singular value thresholding algorithm for matrix completion. SIAM Journal on Optimization, 20:1956–1982, 2010.
  • 6
    点赞
  • 26
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
众所周知,人工智能是当前最热门的话题之一, 计算机技术与互联网技术的快速发展更是将对人工智能的研究推向一个新的高潮。 人工智能是研究模拟和扩展人类智能的理论与方法及其应用的一门新兴技术科学。 作为人工智能心研究领域之一的机器学习, 其研究动机是为了使计算机系统具有人的学习能力以实现人工智能。 那么, 什么是机器学习呢? 机器学习 (Machine Learning) 是对研究问题进行模型假设,利用计算机从训练数据中学习得到模型参数,并最终对数据进行预测和分析的一门学科。 机器学习的用途 机器学习是一种通用的数据处理技术,其包含了大量的学习算法。不同的学习算法在不同的行业及应用中能够表现出不同的性能和优势。目前,机器学习已成功地应用于下列领域: 互联网领域----语音识别、搜索引擎、语言翻译、垃圾邮件过滤、自然语言处理等 生物领域----基因序列分析、DNA 序列预测、蛋白质结构预测等 自动化领域----人脸识别、无人驾驶技术、图像处理、信号处理等 金融领域----证券市场分析、信用卡欺诈检测等 医学领域----疾病鉴别/诊断、流行病爆发预测等 刑侦领域----潜在犯罪识别与预测、模拟人工智能侦探等 新闻领域----新闻推荐系统等 游戏领域----游戏战略规划等 从上述所列举的应用可知,机器学习正在成为各行各业都会经常使用到的分析工具,尤其是在各领域数据量爆炸的今天,各行业都希望通过数据处理与分析手段,得到数据中有价值的信息,以便明确客户的需求和指引企业的发展。
众所周知,人工智能是当前最热门的话题之一, 计算机技术与互联网技术的快速发展更是将对人工智能的研究推向一个新的高潮。 人工智能是研究模拟和扩展人类智能的理论与方法及其应用的一门新兴技术科学。 作为人工智能心研究领域之一的机器学习, 其研究动机是为了使计算机系统具有人的学习能力以实现人工智能。 那么, 什么是机器学习呢? 机器学习 (Machine Learning) 是对研究问题进行模型假设,利用计算机从训练数据中学习得到模型参数,并最终对数据进行预测和分析的一门学科。 机器学习的用途 机器学习是一种通用的数据处理技术,其包含了大量的学习算法。不同的学习算法在不同的行业及应用中能够表现出不同的性能和优势。目前,机器学习已成功地应用于下列领域: 互联网领域----语音识别、搜索引擎、语言翻译、垃圾邮件过滤、自然语言处理等 生物领域----基因序列分析、DNA 序列预测、蛋白质结构预测等 自动化领域----人脸识别、无人驾驶技术、图像处理、信号处理等 金融领域----证券市场分析、信用卡欺诈检测等 医学领域----疾病鉴别/诊断、流行病爆发预测等 刑侦领域----潜在犯罪识别与预测、模拟人工智能侦探等 新闻领域----新闻推荐系统等 游戏领域----游戏战略规划等 从上述所列举的应用可知,机器学习正在成为各行各业都会经常使用到的分析工具,尤其是在各领域数据量爆炸的今天,各行业都希望通过数据处理与分析手段,得到数据中有价值的信息,以便明确客户的需求和指引企业的发展。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值