![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
文献阅读
文章平均质量分 77
木水_
这个作者很懒,什么都没留下…
展开
-
读论文:DiffBIR: Towards Blind Image Restoration with Generative Diffusion Prior
模糊核的大小遵循7 ~ 21的均匀分布,第一次退化过程的模糊σ均匀采样在0.2 ~ 3之间,第二次退化过程的模糊σ均匀采样在0.2 ~ 1.5之间。对于第一次降解过程,调整尺寸的比例因子遵循0.15至1.5的均匀分布,对于第二次降解过程,比例因子遵循0.3至1.2的均匀分布。在第一次和第二次退化过程中,泊松噪声的尺度分别在0.05 ~ 3和0.05 ~ 2.5之间随机采样。上述引导可以迭代地强制潜在特征之间的空间对齐和颜色一致性,并引导生成的潜在保留参考潜在的内容,实现从生成的输出到更平滑的结果的过渡。原创 2024-02-04 15:48:36 · 1270 阅读 · 0 评论 -
深入浅出 diffusion(5):理解 Latent Diffusion Models(LDMs)
1. LDM 优势如果你了解 diffusion 原理的话,那么理解 Latent Diffusion Models 的原理就比较容易。论文High-Resolution Image Synthesis with Latent Diffusion Models(Latent Diffusion Models)发表于CVPR2022,第一作者是Robin Rombach(慕尼黑大学)。1. LDM 优势论文LDM 的网络示意图如下所示。原创 2024-01-31 10:40:05 · 4256 阅读 · 1 评论 -
Raw 单帧降噪论文整理
该文章最大的特点在于使用了k-sigma变换,去掉数据的噪声强度对于ISO的依赖,某种程度上算是降低了训练数据的难度,本质上是借鉴VST(variance stabilizing transformations )的思想。该文章最大特点我认为是提出了一种为可用的现代数码相机校准噪声参数的方法,噪声模型建模方式为常见的 k-sigma 参数标定模型。该文章最大特点我认为是改善了 ELD(下文) 的校准噪声参数的方法,噪声模型建模方式本质为泊松-高斯参数标定模型。该文章是22年那篇的扩展。原创 2023-12-26 20:10:37 · 667 阅读 · 0 评论 -
再回首感知损失在low-level上的应用
Style Reconstruction Loss 计算的时候,VGG 中间输出特征先经过 Gram matrix(格拉姆矩阵:n维欧式空间中任意k个向量之间两两的内积所组成的矩阵)计算获得内积矩阵,再对该矩阵计算 L1。我近几年的工作中,所训练的模型都离不开感知损失。小结,如果是需要做一些很精细化的超分,比方人脸,追求真实自然性,那么用 Feature Reconstruction Loss 就够了,用了 Style Reconstruction Loss 容易出现一些偏色、不自然条纹等问题。原创 2023-12-14 19:38:34 · 98 阅读 · 0 评论 -
读论文:Restormer: Efficient Transformer for High-Resolution Image Restoration
在早期阶段,网络在较小的图像块上进行训练,在后期的训练阶段,网络在逐渐增大的图像块上进行训练,所以会随着patch大小的增加而减少batch大小,以保持相同的训练时间。最后,根据实际训练情况来看,restormer,尤其是小型化的restormer,未必比同大小的cnn更有优势。~计算通道上的自注意力而不是空间上,即计算跨通道的交叉协方差来生成隐式地编码全局上下文的注意力图。的生成则是依靠伯努利分布的随机输入,可以看作 dropout的思想和relu的结合,增加鲁棒性。原创 2023-12-13 20:01:55 · 399 阅读 · 0 评论 -
读论文:HINet: Half Instance Normalization Network for Image Restoration
第二,一个阶段的多尺度特征有助于丰富下一个阶段的特征。原因方面还是在于 low-level 比较依赖浅层信息,两级网络中的第一级输出控制在较浅的信息,然后再经过一个 U-Net 操作,效果就上来了。与resblock相比,主要差别在于:HIN对输入3*3conv处理的特征按照通道分成两部分,一部分采用IN进行规范化,另一部分无规范化,处理后的两部分沿着通道维度进行拼接。其次,在局部监督预测的帮助下,生成 attention map 抑制当前阶段信息量较少的特征,只允许有用的特征传播到下一阶段。原创 2023-12-14 15:32:18 · 341 阅读 · 0 评论 -
知识蒸馏(Distilling Knowledge )的核心思想
我最近在阅读 ICCV 关于神经网络模型压缩与加速的文章,顺藤摸瓜阅读了 Hinton 等大佬们在这方面的开山巨作(Distilling the Knowledge in Neural Network)。文章很有创意,做点笔记。 文章针对的是分类问题,其主要工作解决两个问题:如何把大型网络压缩成小型网络? 如何训练多个网络后融合模型以提高网络表现能力又不占用过大内存?(解决...原创 2019-11-18 20:24:42 · 6328 阅读 · 1 评论 -
读论文:Data-Free Learning of Student Networks
ICCV 2019年总共有三篇文章讲了模型压缩与加速,这是其中一篇。文章9月份更新了最新版,网上关于文章的解读也有了不少,我在此篇博客中简单讲下自己的理解。1 文章解决的问题 这篇文章解决了下图架构的一类问题,即:已经有了大型复杂的网络处理分类问题; 没有训练数据; 想要获得小型的、能够部署、性能接近大型网络的分类模型。 2 如何做的2...原创 2019-11-20 12:03:21 · 757 阅读 · 0 评论