论文笔记:Efficient Nonconvex Regularized Tensor Completion with Structure-aware Proximal Iterations

一、本文创新点

1、作者注意到重叠核范数对于张量补全的效果比较好,提出了一种用于张量补全的重叠核范数正则化的非凸变体。

2、该正则化自然引起损失函数的非凸,故提出了一个更有效的优化的算法

3、提出的优化算法有三点优势:一:避免了代价昂贵的张量展开和合并;二:在迭代中保持“稀疏加低秩”结构;三:融入适应的动力。

二、相关工作

1、低秩矩阵学习

                                                                     

求解方法:第一步:

                 第二步:

 

对于求解方程(3),已经有理论保证,理论如下:

                              

 

下面来看看具体的例子

                                   

求解方法:第一步:(其实就是代入方程2中)

                  第二步:依据上面的步骤,现在应该算Z_{t}的SVD了,但是直接运算代价有点大,所以这里利用了Power method去算

 

2、非凸的低秩正则化

                                         

对于非凸正则化,有如下假设

                     

常见的非凸正则化有:(1)

                                       (2)

类似于Lemma 2.1,对于求解带有非凸问题,也有近端梯度步骤

                         

对于求解方程(8),也已有理论保证,理论如下:

                               

三、非凸低秩张量填充(这里才是本文的重点哈,前面都是些铺垫啦啦啦)

                        

直接利用近端梯度算法来求解并不是很乐观,因为并不简单。所以这里先利用近端平均算法(PA算法)

PA算法是解决函数中包含凸但非光滑的函数项,如下:

                                          

具体迭代步骤为:

                                    

那么对于问题(9),具体的迭代步骤为:

                                       

                                   

下面利用低秩加稀疏结构,可以避免对张量进行展开和合并操作

                                    

                           

                     

方程(19)和(20)涉及到的计算,下面的定理给出进一步的计算方法

                               

                                  

                          

四、结论

本文提出了一个非凸正则化的低秩张量补全模型。提出了一种高效的非凸近似平均算法,该算法在迭代过程中保持了“稀疏加低秩”的结构,并引入了自适应动量。收敛到临界点是有保证的。实验结果表明,该算法比已有的方法更有效、更准确。作为未来的工作,利用自动机器学习(AutoML) (Yao et al., 2018b)自适应调整超参数的建议的方法将是有趣的。

 

 

 

 

 

 

 

 

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值