《Blind Deconvolution Using a Normalized Sparsity Measure》

这篇论文标题为《Blind Deconvolution Using a Normalized Sparsity Measure》,由Dilip Krishnan、Terence Tay和Rob Fergus撰写,主要研究了一种新的盲去卷积方法,该方法利用归一化的稀疏度量来改善图像恢复的质量。

Code:Blind Deconvolution using a Normalized Sparsity Measure | Dilip Krishnan (wordpress.com)

摘要 (Abstract)

问题背景: 盲去卷积是一个病态问题,它涉及到从模糊和退化的输入中恢复出清晰的无失真图像。这个问题通常需要正则化来解决,但是许多常用的图像先验存在一个主要缺陷:成本函数的最小值并不对应于真实的清晰解。

现有方法的局限性: 现有方法通常需要额外的技巧来获得好的结果,例如贝叶斯方法、自适应成本函数、alpha-matte提取和边缘定位等。

本研究的贡献: 本文介绍了一种新的图像正则化类型,它为真实的清晰图像提供了最低的成本。这允许使用非常简单的成本公式来用于盲去卷积模型,从而避免了需要额外方法的复杂性。由于其简单性,算法快速且非常鲁棒。作者在具有空间不变和空间变化模糊的真实图像上展示了他们的方法。

1. 引言 (Introduction)

  • 主题: 论文讨论了低级视觉任务(如去噪、去模糊、修复和超分辨率)中的一个关键问题——盲去卷积。这是一个病态问题,需要正则化来解决。
  • 问题: 常见的图像先验在最小化成本函数时,往往得到的不是真实的清晰图像,而是模糊图像。这导致了需要多种工作方法来获得好的结果。
  • 解决方案: 作者提出了一种新的图像正则化方法,它在真实清晰图像上的成本最低,简化了盲去卷积模型的成本公式,并且算法快速且鲁棒。

2. 动机 (Motivation)

  • 正则化函数: 作者提出的正则化函数
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值