图象恢复学习笔记(一)

本文是关于图像恢复的学习笔记,探讨了图像恢复问题,包括其数学模型和不适定性。文章深入介绍了稀疏表示的概念,如L0和L1范数最小化,并讨论了匹配追踪、正交匹配追踪等算法。此外,还涵盖了字典学习的重要性及其算法,如K-SVD和L1范数字典学习。进一步讲解了非局部中心化稀疏表示NCSR,以及低秩最小化方法在图像恢复中的应用。最后,简要提及了深度学习在图像超分辨率和去噪等任务中的进展。
摘要由CSDN通过智能技术生成

 Restoration: From Sparse and Low-rank Priors to Deep Priors 阅读笔记

来源:http://www.comp.polyu.edu.hk/~cslzhang

图象恢复问题描述

公式表示

 ? = ?? + ? ,其中? 是退化矩阵,? 是加性噪声

图像恢复问题可以描述为给定观察到的y图像,从中恢复出原图像x。

图象恢复是一种不适定问题。

(适定问题是指定解满足下面三个要求的问题:① 解是存在的;② 解是唯一的;③ 解连续依赖于定解条件,即解是稳定的。这三个要求中,只要有一个不满足,则称之为不适定问题。)

图象恢复模型

      

核心问题:

  退化过程模型建立

  合适的先验条件(good priors)

稀疏表示

回顾线性代数??=?, 如何求解??

A满秩方阵,?=?-1?.

A列满秩矩阵(over-determined),有最小二乘解   ?= ?? (伪逆)

            

A行满秩矩阵(under determined)?

            

优化模型:        ?????(?)  ?.?.??=?

不同目标函数?(?)可以得到不同的解,其中目标函数取

        

L2范数最小化的解为稠密解(解里有许多非0的值),但更多的时候,我们希望得到一个稀疏的解,即解里有许多0或接近0的值。

    

稀疏编码模型

为了得到稀疏解,取目标函数为L0范数。

        

L0范数最小化为非凸的NP-hard问题。

L1范数最小化是L0范数最小化的最紧的凸松弛。

最为广泛使用的稀疏编码模型形式如下:

        

       

稀疏编码的算法

L0范数最小化-贪婪搜索

               匹配追踪MP

               正交匹配追踪OMP

L1范数最小化-凸优化

             迭代再加权最小二乘

               近似梯度下降(迭代软阈值ISTA)

    增广拉格朗日方法(乘子交替方向法ADMM)

MP&OMP

  匹配追踪(MP)和正交匹配追踪(OMP)要解决的问题可以具体表示为:

  在过完备字典?中选出k列,用这k列的线性组合近似表达待稀疏分解信号?,表示为,?=??,求?。

  其中字典A和观测到的信号?已知。

  过完备字典,即原子个数远大于信号长度,?=??中,过完备字典?为n*m尺寸,信号b长度为n*1,?为m*1。

        

MP算法的基本思想:

  从过完备字典矩阵A(也称为原子库中),选择一个与信号? 最匹配的原子(某一列),最小二乘解逼近,再从信号?中减去这部分,求出信号残差,然后继续选择与信号残差最匹配的原子,反复迭代,信号?可以由这些原子的线性和,加上最后的残差值来表示。

  由于字典原子不是相互正交的,有可能会使得每次迭代的结果不是最优的,需要很多次迭代才能收敛。

OMP算法思想:

  在正交匹配追踪OMP中,残差是总与已经选择过的原子正交的。这意味着一个原子不会被选择两次,结果会在有限的几步收敛。

  具体步骤其实就是用施密特正交化使每次选择的原子(字典某一列,基)与已经选择过的所有原子正交。另外,求残差也不是直接减ÿ

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值