- 这是武汉大学发表在ICCV2023的一篇用diffusion模型来做暗图增强的工作,希望通过diffusion model的生成能力来还原出暗图中丢失的信息,同时用transformer作为retinex model的分解网络
前面的transformer模型的损失如下图所示,即常规的重建损失,亮度分量的平滑损失,成对图像的R分量要相同的损失。其中重建损失的第三项是交叉损失,指将暗图和亮图的R对换后的损失,但是具体又不给出表达式,很可疑:
- 前面的transformer模型用的是通道注意力,后面的diffusion模型的backbone用的是restormer
- 实验结果如下图所示,给出了LOL数据集和VE-LOL数据集上的结果,感觉一般
- 评价:这个工作感觉也没什么创新点,价值大概就是给出了用diffusion做暗图增强的baseline吧。
Diff-Retinex: Rethinking Low-light Image Enhancement with A Generative Diffusion Model 论文阅读笔记
最新推荐文章于 2024-06-03 16:58:33 发布