无监督系列去噪算法

2020-CVPR-波士顿电子制造商-Noisier2Noise_ Learning to Denoise from Unpaired Noisy Data

Noisier2Noise: Learning to Denoise from Unpaired Noisy Data

2018-ICML-英伟达-Noise2Noise: Learning Image Restoration without Clean Data

本来我们做图像降噪,需要输入的噪音图像 x,和 “干净样本” y。
如果用 y 作为训练目标,生成 y 是个非常费时费力的过程。

可以用另一次快速渲染生成的另一个噪音图像(它相当于 y + 另一个不同的噪音)作为训练目标。
只要训练样本够多,最终也相当于用 y 作为训练目标。原因是简单的统计学原理。
https://zhuanlan.zhihu.com/p/39512000

这项结论来自于一个简单的统计学上的观察:我们在网络训练中使用的损失函数,其仅仅要求目标信号(ground truth)在某些统计值上是“干净”的,而不需要每个目标信号都是“干净”的。

只要对每张被污染的图像观察两次,即输入数据集也是目标数据集,就可以实现对网络的训练,而不需要获得“干净”的目标。
https://blog.csdn.net/zbwgycm/article/details/81134631

[论文理解] Noise2Noise: Learning Image Restoration without Clean Data
https://www.cnblogs.com/aoru45/p/12250289.html

显著减少图像渲染所需的时间——毫秒级别。

我们的baseline是最近state-of-the-art的方法“RED30”,这是一个具有128个特征图的30层的分层残差网络,已经被证明是非常有效的。
https://www.sohu.com/a/240735388_473283
 

2019-CVPR-(Noise2Void)Learning Denoising from Single Noisy Images

虽然网络学习得是从一张噪声图像到另一张噪声图像的映射,但训练仍然能够收敛到正确的解。这个现象的关键在于噪声图像的期望值等于干净的图像。

在N2V训练中,只有单张噪声图像,如果只是简单得提取一个patch作为输入,而用其中心像素作为目标进行训练,网络将只会学到恒等映射,即直接把输入patch的中心值映射到输出。为此,文章设计了一种有着特殊感受野的网络结构——盲点网络(blind-spot network)。
https://blog.csdn.net/zbwgycm/article/details/88033301
 

2020-ECCV-Unpaired Learning of Deep Image Denoising

2020-ECCV-Unpaired Learning of Deep Image Denoising

代码
https://github.com/XHWXD/DBSN

输入:不成对的噪声图像和干净图像
第一步:用自监督学习,联合训练真实世界图像去噪和噪声估计,结合去噪结果和噪声水平图,用贝叶斯法则提升去噪效果
第二步:用干净图像加CNNest得到的噪声来构成一个合成数据集,再将第一步的真实图像和对应去噪结果构成另一个数据集,用这两个数据集做蒸馏一个已有去噪网络(CDN)


知识蒸馏被广泛的用于模型压缩和迁移学习当中。开山之作应该是”Distilling the Knowledge in a Neural Network“。
把多个模型的知识提炼给单个模型。

最常见的迁移学习的方式就是在一个大的数据集上先做预训练,然后使用预训练得到的参数在一个小的数据集上做微调(两个数据集往往领域不同或者任务不同)。

作者认为可以将模型看成是黑盒子,知识可以看成是输入到输出的映射关系。

知识蒸馏,可以将一个网络的知识转移到另一个网络

先训练一个teacher网络,然后使用这个teacher网络的输出和数据的真实标签去训练student网络。

知识蒸馏,可以用来将网络从大网络转化成一个小网络,并保留接近于大网络的性能;也可以将多个网络的学到的知识转移到一个网络中,使得单个网络的性能接近emsemble的结果。

训练student的时候,需要input,teacher label(也就是soft label), true label(也就是hard label)

迁移学习是从一个领域迁移到另一个领域,知识蒸馏是将知识从一个网络迁移到另一个网络。
迁移学习中两个网络所面对的数据集是不一样的,而知识蒸馏面对的是同一数据集,其目的是让小网络学到大网络中的一些性质,而这些性质是各种label之间的相关性?
https://zhuanlan.zhihu.com/p/81467832

手动数据注释是监督学习中必不可少的步骤,这是耗时,费力的。
非监督学习学习由于预设先验的一般性较差而不太值得信赖,在某些数据集(例如非高斯子数据集)上选择将数据拟合为高斯分布可能是完全错误的。

自我监督方法可以看作是一种具有监督形式的特殊形式的非监督学习方法
自监督学习使用数据集本身的信息来构造伪标签。

事实上,所有的非监督方法都可以视作第一类自监督任务,在我做文献调研的过程中,我越发的感觉到事实上非监督学习和自监督学习根本不存在界限。
https://zhuanlan.zhihu.com/p/125721565

有着特殊感受野的网络结构——盲点网络(blind-spot network)。

该网络的优点在于其不会学到恒等映射。因为我们假设了噪声在像素间是不相关的,所以只利用邻域信息是不能恢复噪声的,而只能恢复图像信息。也因此网络不能产生比期望值更好的估计结果。
https://blog.csdn.net/zbwgycm/article/details/88033301
 

  • 0
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

WX Chen

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值