自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

主要更新底层视觉(去噪、超分等)相关的科研内容,形式为【论文精读】+【论文复现】

致力于帮助研究生看懂论文,复现代码,做好实验,写好论文,订阅专栏即可免费阅读全部文章,获取相关资料,免费答疑!

  • 博客(1092)
  • 资源 (13)
  • 收藏
  • 关注

原创 【图像增强(Image Enhancement )】专栏的相关说明,包含适配人群、专栏简介、专栏亮点、阅读方法、定价理由、品质承诺、关于更新、关于答疑、文章目录、与我联系等(持续更新中...)

专栏内涉及的算法都是基于深度学习的图像增强算法;收录的文章基本上是基于Pytorch框架实现的,部分基于Tensorflow;预计完成100篇论文,并持续更新;专栏内文章主要为两部分:【论文精读】与【论文复现】论文精读:读懂论文,总结提炼,聚焦核心内容,不只是全文翻译论文复现:跑通流程,源码解析,提升代码能力,得到去噪结果以及指标计算综合而言,从大到小拆解模型结构,从小到大实现模型搭建。实现论文与源码的统一,深入理解论文行文逻辑与代码实现逻辑,融汇贯通二者思想,并学以致用。

2025-09-01 15:56:57 3514 6

原创 【图像去噪(Image Denoising)】关于【图像去噪】专栏的相关说明,包含适配人群、专栏简介、专栏亮点、阅读方法、定价理由、品质承诺、关于更新、去噪概述、文章目录、资料汇总、问题汇总(更新中)

你是否在全网苦寻【图像去噪(ImageDenoising)】的相关资料?你的目标是否是看懂【图像去噪(ImageDenoising)】的相关论文,复现代码,跑出结果,并试图创新?你是否需要发表【图像去噪(ImageDenoising)】的相关论文毕业?你是否需要做【图像去噪(ImageDenoising)】的相关项目,开发软件,研究算法,获得专利或者软著?只要是与【图像去噪(ImageDenoising)】有关的问题,那么请继续往下看。

2025-01-14 18:19:51 18679 43

原创 【超分辨率(Super-Resolution)】关于【超分辨率重建】专栏的相关说明,包含专栏简介、专栏亮点、适配人群、相关说明、阅读顺序、超分理解、实现流程、研究方向、论文代码数据集汇总等

本专栏研究领域为【超分辨率重建】,涵盖图像超分、视频超分,实时超分,4K修复等方面。主要内容包括主流算法模型的论文精读、论文复现、毕业设计、涨点手段、调参技巧、论文写作、应用落地等方面。算法模型从SRCNN开始更新至今,一般是一篇论文精读对应一篇论文复现。论文精读详解理论,归化繁为简,归纳核心,积累词句,培养阅读论文和论文写作能力。论文复现依托Pytorch代码,实现完整的模型训练流程,总结调参方法,记录碰到的bug,论文插图可视化,培养读写代码能力、做实验的能力、以及应用落地能力。

2024-03-25 15:50:42 32073 54

原创 【图像拼接(Image Stitching)】关于【图像拼接论文源码精读】专栏的相关说明,包含专栏内文章结构说明、源码阅读顺序、培养代码能力、如何创新等。总之,【图像拼接源码】复现看这一篇就够了!

本文是【图像拼接论文源码精读】专栏的相关说明,将一些共性的东西在这里做统一说明,就不在每一篇文章中重复了。【图像拼接(Image Stitching)】关于【图像拼接论文精读】专栏的相关说明,包含专栏使用说明、创新思路分享等(不定期更新)。先看该专栏说明,然后进入专栏阅读相关文章,建议同步订阅,同步阅读。本专栏针对图像拼接领域公布源码的文章进行源码解读,没有源码的文章在有源码的文章全部更新完毕后尝试复现。

2024-01-01 10:01:56 27453 17

原创 【图像拼接(Image Stitching)】关于【图像拼接论文精读】专栏的相关说明,包含专栏使用方法、阅读顺序、创新思路、文章汇总、源码汇总、数据集汇总等。总之,【图像拼接论文相关】看这一篇就够了

为什么会有这篇文章?因为专栏简介里写不下太多东西,只能通过这篇文章和大家交流,算是一个专栏阅读指南吧。说点心里话本来吧,我只想用CSDN来记录自己学习【图像拼接】领域论文的过程,对每篇文章有个细致的理解,方便自己反复查阅。设置为付费也是因为涉及论文和本人其他项目需要,防止查重和其他问题,所以价格最开始设置的是专栏付费价格里最高的。起初,确实没有人看,一切也都平淡地度过着。

2023-11-30 15:36:46 41333 29

原创 TGRS 2026 即插即用 | Transformer篇 | LCGA:新型曲率引导自注意力!结构先验助力局部特征捕捉,优于传统自注意力!

本文提出了一种基于曲率引导的注意力模块LCGA,用于遥感图像超分辨率任务。该模块通过计算局部窗口内特征的二阶梯度曲率,生成结构先验权重来引导注意力机制,强化边缘和纹理区域的关注度。LCGA采用窗口划分降低计算复杂度,配合门控机制平衡原始特征与曲率增强特征,在保持即插即用特性的同时提升重建质量。实验表明,该方法能有效减少锯齿伪影,在多项指标上优于传统注意力机制,且计算成本较低。模块可直接嵌入现有视觉模型中,适用于需要增强结构细节的各种视觉任务。

2026-03-21 11:32:17 4

原创 CVPR 2026 即插即用 | Transformer篇 | GSRA:自注意力创新!几何校正空间一致性,语义强化高层关联,特征更精准!

PhaSR模块通过几何-语义校正注意力(GSRA)实现阴影去除,采用双模态专属投影设计,将3D几何特征与1024D语义特征映射到统一维度。GSRA模块通过可学习权重动态调整模态增强强度,支持基础版和拼接版两种融合模式,实现结构+语义双重校正。该模块可嵌入各类视觉模型,在阴影去除任务中达到SOTA性能,尤其在复杂光照条件下表现优异。模块代码支持几何和语义特征的双KV增强与注意力校正,适用于对几何-语义特征敏感的双模态融合任务。

2026-03-21 11:31:51 16

原创 CVPR 2026 即插即用 | Transformer篇 | LFSB:差分双流注意力,双特征交互融合,替换传统自注意力涨点!

本文提出了一种新型层融合-分离模块(LFSB),用于单幅图像反射分离任务。该模块通过差分双流注意力架构实现特征融合与分离,包含自注意力和交叉注意力分支,利用可学习权重优化特征交互。LFSB采用窗口化分区设计降低计算复杂度,并引入门控融合机制保持双流特征独立性。实验表明,该模块能有效提升反射分离性能,在合成和真实数据集上均取得最优效果。核心创新点包括:1)差分双流注意力机制;2)窗口化分区交互;3)融合-分离双流设计;4)可学习残差加权。代码已开源,适用于需要双输入特征交互的视觉任务。

2026-03-20 08:36:03 9

原创 AAAI 2026 Oral 即插即用 | Transformer篇 | WPO:突破性创新,Transformer新范式,波动方程调制,比自注意力更轻更准!

本文提出WaveFormer架构及其核心组件Wave Propagation Operator (WPO),通过将物理波动方程引入深度学习实现频域特征调制。WPO采用DCT/IDCT变换在频域进行波动方程解耦计算,通过可学习参数波速c和衰减系数α动态调节特征传播,在保持高频细节的同时捕捉全局依赖。相比传统注意力机制,WPO以更低计算量(O(N log N))实现更优性能,在图像分类、检测和分割任务中展现出竞争力。实验表明,该模块能有效平衡全局结构与局部细节,为视觉模型提供物理启发的建模偏差。

2026-03-20 08:35:19 8

原创 CVPR 2026 即插即用 | 卷积篇 | DEGConv:方向引导门控卷积,动态掩码强化结构区域,边缘/纹理/小目标结构全捕捉!

本文提出了一种新型方向引导边缘门控卷积模块DEGConv,用于增强视觉任务中的方向依赖与边缘细节。该模块通过2×2补丁划分扩展感受野,采用水平(1×k)和垂直(k×1)双分支深度卷积捕捉方向特征,并利用边缘门控动态调制输出。相比传统卷积,DEGConv能以1/4计算成本实现大核卷积效果,同时强化边缘区域特征。实验表明,该模块在裂缝分割等任务中显著提升性能,且具有即插即用特性,可直接替换传统卷积层。

2026-03-19 09:35:25 380

原创 ICLR 2026 即插即用 | Transformer篇 | MHLA:多头线性注意力,比Transformer的二次注意力更轻更准!

摘要:MHLA(多头线性注意力)模块提出了一种高效捕捉全局-局部依赖的线性注意力机制。该模块通过块距离卷积生成固定空间权重,结合多头并行处理,在保持线性复杂度(O(N))的同时恢复传统自注意力的表达能力。核心创新包括:1)块距离引导的空间依赖捕捉;2)线性复杂度注意力设计;3)多头并行与通道适配;4)残差融合机制。实验表明,MHLA在图像分类、NLP和图像生成等任务中性能优于传统线性注意力,计算效率比标准自注意力提升41%,在ImageNet分类任务上实现3.6%的准确率提升。模块可灵活替换Transfor

2026-03-19 09:35:03 106

原创 CVPR 2026 即插即用 | 注意力篇 | PFG:多尺度大核+像素级频率门控,特征显著增强,精准适配边缘纹理场景

本文提出了一种基于频率引导的轻量级外围门控模块PFG,用于高效时空预测学习。该模块通过多尺度大核分解卷积(1×K + K×1)捕捉外围空间依赖,同时利用固定频率滤波器提取高频线索,动态融合不同尺度的外围特征。核心创新包括:外围聚焦的多尺度空间增强、频率引导的动态融合机制、双阶段归一化协同等。实验表明,PFGNet在多个基准数据集上达到SOTA性能,同时保持较低计算复杂度。该模块可直接嵌入各类视觉模型,适用于需要强化空间-通道协同表达的轻量级任务。

2026-03-18 08:17:56 250

原创 CVPR 2026 即插即用 | Transformer篇 | BinaryAttention:自注意力的高效创新!1位二值化,性能保持的同时推理速度快2倍!

BinaryAttention是一种高效的1位QK注意力模块,通过二值化查询和键来降低计算复杂度。该模块采用多模式量化架构,将Q/K量化为±1二值,存储成本降低8倍,计算简化为加减运算。引入位置偏置补偿机制,保留空间关联信息。模块兼容标准自注意力接口,可直接替换现有注意力层,实现即插即用。实验表明,BinaryAttention在视觉和扩散Transformer中匹配甚至超越全精度注意力性能,推理速度比FlashAttention2快2倍以上,内存占用和延迟显著降低,适用于轻量化部署和高分辨率处理任务。

2026-03-18 08:17:07 256

原创 AAAI 2026 即插即用 | Transformer篇 | DHOGSA:新型自注意力!HOG先验引导特征精准聚焦边缘,PSNR猛涨!

本文介绍了一种基于HOG特征的动态自注意力模块DHOGSA,用于图像恢复任务。该模块通过提取方向梯度直方图(HOG)作为结构先验,引导注意力机制聚焦图像边缘和纹理特征。核心创新包括:1) HOG感知的动态特征引导,将梯度信息融入注意力计算;2) 双路径注意力互补设计,同时捕捉全局和局部依赖;3) 梯度驱动的动态排序机制,强化关键结构特征。实验表明,该方法在多种图像退化场景下优于现有技术,且具有良好的泛化性。模块代码支持直接嵌入现有视觉模型,计算成本适中,适用于需要增强结构特征的任务。

2026-03-17 12:04:10 24

原创 TPAMI 2026 即插即用 | Transformer篇 | ASSA:自适应稀疏自注意力,现有自注意力的完美替代方案!

摘要:ASSANet提出了一种自适应稀疏自注意力模块(ASSA),通过动态深度卷积增强局部特征,并采用6种可选的稀疏策略(如ReLU、Top-K等)自适应筛选关键注意力关联。该模块支持训练时全局注意力与测试时局部窗口(TLC)的高效推理模式,在超分辨率等视觉任务中实现SOTA性能,同时保持轻量级设计。实验表明,ASSA在精度和效率上均优于传统自注意力机制,可灵活嵌入各类视觉模型。

2026-03-17 12:03:45 246

原创 AAAI 2026 即插即用 | 注意力篇 | MECM:门控MoE+专家记忆库,全局模式+空间细化,精准筛选特征!

本文提出了一种深度记忆解耦网络(DMDNet)中的关键模块——记忆专家补偿模块(MECM),用于解决图像反射分离任务中的特征混淆问题。该模块创新性地将门控混合专家(MoE)与双流记忆网络结合,通过专家多样化、稀疏计算和动态记忆库设计实现高效特征补偿。MECM采用全局-空间双流架构,利用历史知识指导特征解耦,在白天和夜间场景均取得SOTA效果。实验表明,当设置4个专家并激活Top2时,该模块在计算效率和性能间达到最佳平衡。模块可端到端训练,适用于高分辨率图像处理任务。

2026-03-16 08:37:25 131

原创 【即插即用模块】Transformer篇 | AAAI 2026 | Circulant Attention:全新ViT自注意力范式,复杂度从O(N²) 降至O(NlogN)!

本文提出了一种基于频域优化的循环注意力模块(Circulant Attention),通过离散傅里叶变换(DFT)将传统自注意力中的矩阵乘法转化为频域元素乘法,显著降低了计算复杂度。该模块采用复数线性层适配频域特征,并引入门控调制机制增强表达能力,在保持全局依赖捕捉能力的同时,将复杂度从O(N²)降至O(NlogN)。实验表明,该模块在多种视觉任务中均能提升模型性能,且计算效率更高。适用于需要高效全局注意力的视觉Transformer架构,可作为传统自注意力的替代方案。

2026-03-16 08:36:31 20

原创 【即插即用模块】Transformer篇 | MICCAI 2025 | ReLULA:Q/K双ReLU线性注意力,既轻又准!

本文介绍了一种基于线性注意力的多实例学习模块(Lin-MIL),适用于高分辨率视觉任务。该模块通过转置计算顺序和使用ReLU激活,将计算复杂度从O(n²d)降至O(nd²),同时提升特征判别性。核心创新包括Q/K双ReLU激活、可学习温度系数和数值稳定归一化。实验表明,该模块在轻量化视觉任务中优于传统线性注意力和Mamba架构。代码实现了模块化矩阵乘法,支持即插即用替换ViT自注意力层。该模块特别适合计算病理学等需要处理大量图像补丁的任务。

2026-02-09 17:57:03 72

原创 【即插即用模块】卷积篇 | TGRS 2025 | HLKConv:小核+空洞=大核,感受野一致,但更轻更准!

本文介绍了分层大核卷积模块HLKConv,该模块通过动态大核+空洞卷积实现高效感受野扩展,将超大核卷积分解为小核+空洞卷积(如53×53核用17×17+dilation=3实现),计算量仅为普通大核的1/10。模块采用双分支设计:基础卷积分支捕捉局部细节,大核空洞分支捕捉长距离关联,通过1×1卷积融合。实验表明HLKConv在红外小目标检测中优于传统大核卷积,适用于高分辨率视觉任务。代码实现了不同核尺寸的配置,输入输出特征维度保持不变,计算效率显著提升。

2026-02-09 17:55:59 181

原创 【即插即用模块】Transformer篇 | ArXiv 2025 | MoHA:多头注意力作为多头注意力的混合专家,适配各种Transformer架构,缝合即涨点!

本文提出了一种新型混合头注意力模块(MoHA),通过将多头自注意力与混合专家(MoE)机制相结合,在保持或提升模型性能的同时降低计算成本。MoHA采用共享头与路由头的混合架构:共享头捕捉全局通用特征,路由头基于输入动态选择以适配特定特征。核心创新包括连续相对位置偏置(CPB)增强位置敏感性、动态路由机制优化资源分配,以及负载均衡损失避免头冗余。实验表明,MoHA在ViT、DiT和LLM等Transformer类模型中仅需50%-90%的注意力头即可超越传统MHSA性能。该模块可直接替换标准MHSA,适用于通

2026-02-08 18:15:26 55

原创 【即插即用模块】Transformer篇 | ICASSP 2025 | ACFM:3D卷积+双分支,自注意力创新改进,涨点起飞!

CAF-YOLO提出了一种用于生物医学图像多尺度病变检测的创新框架,其核心是注意力与卷积融合模块(ACFM)。该模块通过3D卷积处理2D特征,结合局部卷积分支(捕捉细节)和全局自注意力分支(建模长程依赖),有效解决了传统方法对微小病变检测精度不足的问题。实验表明,ACFM能显著提升检测性能,特别适用于高分辨率视觉任务。模块采用轻量化设计,可直接替换ViT自注意力层,代码开源并提供了详细维度注释。

2026-02-08 18:15:00 55

原创 【即插即用模块】Transformer篇 | ICASSP 2025 | MSNN:前馈网络创新!3种感受野全覆盖,告别单尺度局限,涨点起飞!

CAF-YOLO提出了一种新型多尺度神经网络模块MSNN,用于提升生物医学图像中的病变检测性能。该模块创新性地结合了3D卷积和不同dilation率的2D空洞卷积,通过多分支结构协同捕捉局部细节、中程关联和长距离上下文特征。元素级乘法融合机制动态筛选有效特征,在保持轻量化的同时显著提升多尺度信息聚合能力。实验表明,MSNN能有效改善微小病变的检测精度,适用于高分辨率视觉任务,可作为即插即用模块替换传统ViT前馈网络。代码实现采用3D-2D混合卷积设计,输入输出维度保持一致,便于集成到现有模型中。

2026-02-06 17:58:16 78

原创 【即插即用模块】特征融合篇 | TGRS 2025 | STFFM:双阶段注意力渐进式特征融合,全场景通用适配,涨点明显!

本文提出了一种全局时空红外小目标检测框架GST-Net,其核心创新点是时空特征融合模块(STFFM)。该模块采用双阶段注意力增强机制,通过通道和空间注意力联合筛选有效特征,实现渐进式时空融合。STFFM具有通用性强、即插即用的特点,可适配多种特征融合场景。实验表明,该模块能显著提升检测性能,在复杂地面场景中的红外小目标检测任务上表现优异。模块代码已开源,支持双输入特征融合,可灵活嵌入现有网络架构。

2026-02-06 17:57:52 84

原创 【即插即用模块】注意力篇 | TGRS 2025 | SCPP:独家复现!三特征多尺度注意力融合,涨点必备!

摘要:SCPP(Scale-aware Pyramid Pooling)是一种创新的多尺度特征融合模块,专为U型网络瓶颈设计。它通过局部特征提取(1×1卷积)、多尺度膨胀卷积(1/3/5膨胀率分支)和全局特征聚合(全局平均池化)三重结构,结合SE通道注意力机制和自适应加权融合,显著提升特征表达能力。实验表明,SCPP能有效解决边缘模糊和错误检测问题,在遥感图像分割等任务中表现优异。该模块支持即插即用,适用于各类需要多尺度特征增强的视觉任务。

2026-02-05 21:02:13 851

原创 【即插即用模块】注意力篇 | TGRS 2025 | SASAM:共享注意力+多尺度特征增强并融合,轻量的同时涨点明显!

本文介绍了一种高效自适应Mamba网络(EAMNet)中的共享自适应空间注意力模块(SASAM),用于红外小目标检测。SASAM采用共享参数和多尺度同步增强设计,通过共享7×7膨胀卷积生成注意力权重,显著降低计算成本。该模块包含自适应加权池化功能,可平衡全局统计与局部峰值特征,并利用膨胀卷积扩大感受野至19×19。SASAM可一次性处理5个多尺度特征,适配FPN、PANet等架构,实验证明能有效提升检测性能。模块代码简洁,支持即插即用,适用于各类多尺度视觉任务。

2026-02-05 20:58:56 185

原创 【即插即用模块】Transformer篇 | ArXiv 2025 | MeSA:元信息引导自注意力,细节捕捉 + 长距离依赖,既轻又准!

本文提出了一种基于元自注意力(MeSA)的弱光RAW图像增强模块。MeSA创新性地将元信息通过MetaFuse模块注入Q向量,实现任务自适应调制;同时结合多尺度局部增强(LEB)捕捉细节特征,在轻量化架构中平衡全局依赖与局部细节。实验表明该模块在PSNR和SSIM指标上分别提升0.04dB和0.002,计算效率优于传统注意力机制。代码采用PyTorch实现,支持即插即用替换ViT自注意力模块,适用于需要任务适配与细节增强的视觉任务。

2026-02-02 20:21:21 68

原创 【即插即用模块】注意力篇 | TGRS 2025 | MFA聚特征+HPDown保细节+HFF融层级,三大模块各司其职,性能翻倍!

本文介绍了MTMLNet网络中的三大核心模块:MFA(多阶段特征聚合)、HPDown(混合池化下采样)和HFF(分层特征融合)。MFA通过双尺度深度卷积和注意力机制增强特征提取能力;HPDown结合平均池化和最大池化,有效保留下采样过程中的特征信息;HFF采用三注意力机制实现自适应特征融合。这三个模块协同工作,在红外小目标检测与分割任务中取得了SOTA效果。实验表明,各模块在特征提取、信息保留和融合方面均优于传统方法,可灵活应用于各类视觉任务中。

2026-02-02 20:19:51 202

原创 【即插即用模块】Transformer篇 | TGRS 2025 | CWMSA:压缩窗口自注意力,替换传统W-MSA准确率提升25%!

本文提出了一种增强空间频率协同网络(ESFS)用于多光谱和高光谱图像融合。核心创新是压缩窗口多头自注意力模块(CW-MSA),通过特征压缩降低计算复杂度,同时保留局部依赖捕捉能力。CW-MSA采用跨尺度注意力机制,Query来自原始特征,Key/Value来自压缩特征,将计算复杂度从O(N²)降至O(N×N')。实验表明,该方法在CAVE×4数据集上性能优于现有SOTA方法,计算量减少30%,同时保持融合质量。消融研究验证了CW-MSA在平衡计算效率和特征表达能力方面的有效性。该模块可直接替代标准窗口注意力

2026-01-31 17:08:16 233

原创 【即插即用模块】Transformer篇 | TGRS 2025 | SFDM:空间残差补细节+频谱增强提结构,双域协同强化特征!

本文提出了一种增强的空间频率协同网络(ESFS),用于多光谱和高光谱图像融合。核心创新是选择性频率分解模块(SFDM),通过频域-空域双路径协同增强特征表示。SFDM采用幅值-相位分离优化、频率注意力筛选和轻量化设计,显著提升了融合性能。实验表明,ESFS在定性和定量评估上均优于现有方法,同时保持了较低的计算复杂度。消融研究验证了SFDM及其FreqMLP子模块对频谱保真度的重要贡献。该模块可灵活嵌入Transformer架构,适用于需要频域-空域协同的视觉任务。

2026-01-31 17:07:33 102

原创 【即插即用模块】注意力篇 | TGRS 2025 | DHPF:动态高通滤波,精准抑制低频,保留高频特征,特征融合和增强的不二之选!

本文提出了一种动态高通滤波器模块(DHPF),用于增强红外小目标检测任务中的高频细节特征。该模块通过频域能量统计自适应确定截止频率,精准抑制低频背景信息,保留关键高频目标特征。DHPF创新性地实现了能量驱动的动态频域滤波,相比传统固定滤波器具有更强的泛化性。实验表明,该模块能有效提升小目标检测性能,在SIRST数据集上达到SOTA效果。模块结构轻量,可直接集成到UNet等解码器中,适用于频域敏感的视觉任务。

2026-01-29 20:25:31 235

原创 【即插即用模块】注意力篇 | TGRS 2025 | CDFIM:通道+空间多尺度注意力,双模态特征融合增强,性能翻倍!

C2DFF-Net提出了一种轻量级跨模态特征融合模块CDFIM,通过模态差异感知和多尺度深度滤波增强双模态互补信息。该模块采用通道-空间注意力协同机制,以极低计算成本(仅增加0.26M参数)提升多模态目标检测性能,在三个遥感数据集上平均提升mAP约1.7%。适用于无人机等边缘设备的实时检测任务,为跨模态融合提供高效解决方案。

2026-01-29 20:24:48 463

原创 【即插即用模块】卷积篇 | CVPR 2024 | FADC:频率自适应卷积,高频区小膨胀 + 低频区大膨胀,细节与全局双捕获!

FADC模块通过频率自适应策略改进扩张卷积,包含三个核心组件:AdaDR(动态调整膨胀率)、AdaKern(分解高低频核)和FreqSelect(频率筛选)。该模块能根据输入特征的频率分布自适应调整卷积核和膨胀率,在语义分割等任务中显著提升性能,同时保持较低计算成本。实验表明,FADC能有效区分高低频区域,为高频细节分配较小膨胀率,低频区域使用较大膨胀率,从而兼顾局部细节与全局上下文。模块可直接替换传统卷积层,在多个基准数据集上实现1-2%的mIoU提升。

2026-01-28 17:59:58 73

原创 【即插即用模块】注意力篇 | TGRS 2025 | CGSA:频域分离+双向门控自注意力,双域双模态特征融合,显著降低特征冗余!

摘要:C2DFF-Net提出了一种轻量级跨模态差分特征融合网络,核心创新模块CGSA通过频域-空域协同增强实现双模态高效交互。该模块采用频域特征提取(CFE)突出结构差异,双模态独立自注意力(SAFF)保留域内特性,门控机制(AG)动态平衡模态贡献。实验表明,在DroneVehicle等数据集上mAP提升1.7%-6.6%,特征相关性降低30%,计算量仅增加5%。模块支持即插即用,适用于遥感、红外-可见光等跨域融合场景,代码已开源。

2026-01-28 17:58:31 96

原创 【即插即用模块】注意力篇 | IJCNN 2024 | MSB:多尺度卷积+三注意力,全局+局部感受野,特征全面增强!

本文提出了一种用于图像去雾任务的混合结构块MSB,由多尺度并行大卷积核模块(MSPLCK)和增强并行注意力模块(EPA)组成。MSPLCK通过"7×7+5×5+3×3"深度膨胀卷积并行处理,生成19×19、13×13、7×7三种感受野特征;EPA则整合了简单像素注意力、通道注意力和像素注意力三种并行注意力机制。该模块采用"先提取后筛选"的处理逻辑,在图像去雾任务中比基准模型PSNR提升了4个点,适用于尺度/区域敏感的视觉任务,可灵活嵌入CNN残差块、多尺度融合位置等场

2026-01-27 18:21:45 66

原创 【即插即用模块】Transformer篇 | AAAI 2024 | DF:动态频域滤波替代多头自注意力,ViT的效率和准确率同步提升!

文章摘要: 本文提出了一种基于FFT的动态滤波器模块(DF),用于替代视觉Transformer中的自注意力机制。该模块通过输入特征全局均值生成动态权重,组合预定义复数滤波器实现频域特征调制。创新点包括:1)输入自适应频域处理;2)基础滤波器组合提高参数效率;3)尺寸自适应兼容不同分辨率。实验表明DF在保持精度的同时显著提升计算效率,尤其适合高分辨率图像处理。模块支持即插即用,可替代Transformer中的自注意力部分。代码已开源,提供详细实现注释和维度变化说明。

2026-01-27 18:21:18 58

原创 【即插即用模块】注意力篇 | TGRS 2025 | ERM:边缘引导 + 全局依赖 + 多频率感知,三模块协同融合并增强特征!

摘要:ISGLNet提出了一种用于红外小目标检测的新型网络架构,核心创新在于边缘细化模块(ERM)和多频感知模块(MFPM)。ERM采用固定权重Sobel算子实现稳定边缘检测,通过区域掩码生成上下文向量实现针对性特征增强,结合全局-频率-局部协同优化机制。该模块适用于各类需要强化边缘与细节的视觉任务,可嵌入UNet跳跃连接处。实验表明,ERM能显著提升目标边界分割精度,在NUDT-SIRST和IRSTD-1k数据集上分别使IoU指标提升2.37%和1.49%。模块采用四阶段处理流程:融合增强→边缘检测→上下

2026-01-26 16:45:34 570

原创 【即插即用模块】注意力篇 | TGRS 2025 | CLGM:多尺度上下文 + 双注意力,感受野扩大实现SOTA!

本文提出了一种用于红外小目标检测的新型网络模块CLGM(Context-aware Local–Global Module)。该模块通过多尺度膨胀卷积(膨胀率1/3/5)协同提取局部细节与全局上下文信息,结合动态通道注意力和空间注意力机制,显著提升了模型对微弱目标的敏感性。实验表明,CLGM在NUDT-SIRST和IRSTD-1k数据集上分别带来5.86%和3.94%的IoU提升。该模块可灵活嵌入UNet等架构,适用于各类需要多尺度特征提取的视觉任务。核心创新包括自适应通道注意力机制和"通道-空间

2026-01-26 16:45:11 202

原创 【即插即用模块】注意力篇 | AAAI 2024 | DCMT:高低分辨率特征感知增强与融合,各类多尺度任务的涨点桥梁!

本文提出DCMT(双路径相关性匹配变换)模块,通过高低分辨率特征联动增强视觉任务性能。该模块包含高分辨率感知融合(ACM)和双路径匹配机制,能自适应聚合多尺度特征并筛选关键信息。实验表明,DCMT在超分等任务中显著提升PSNR指标,尤其适用于多尺度架构的视觉任务。模块支持即插即用,可无缝集成到UNet、金字塔等结构中,强化高低分辨率特征关联。代码实现包含动态特征变换、批量索引选择等优化,兼顾效率与性能。

2026-01-24 13:15:35 53

原创 【即插即用模块】注意力篇 | CVPR 2024 | PKI:多尺度+十字形大核卷积,全局局部感受野全覆盖,更轻更准!

本文提出了一种用于遥感目标检测的多尺度卷积模块PKI(Poly Kernel Inception Block),该模块通过并行使用3/5/7/9/11×11多尺度深度卷积核,有效捕捉不同尺度的特征。创新点包括:(1)采用轻量化瓶颈结构(1×1降维→多尺度卷积→1×1升维)控制参数量;(2)引入上下文锚点注意力(CAA)模块,通过全局池化和十字形卷积生成注意力权重,增强关键区域特征;(3)相比单一尺度卷积,PKI能同时处理局部细节和全局上下文,避免大核卷积的噪声问题。实验表明,该模块在遥感检测任务中实现了更高

2026-01-24 13:14:51 52

原创 【即插即用模块】注意力篇 | TGRS 2025 | CSDF:双注意力+密集多尺度,协同工作显著增强特征!

MF-Mamba模型提出了一种用于遥感图像语义分割的CSDF模块,该模块结合了通道-空间注意力机制和密集多尺度特征融合。CSDF模块通过三分支膨胀卷积(膨胀率[3,5,7])提取多尺度特征,并采用双通道注意力机制(通道+空间)进行特征筛选优化。实验表明,在Vaihingen和WHDLD数据集上,该模块能有效提升分割性能(F1得分提高0.36%,mIoU提升0.55%),尤其改善了小目标检测效果。模块具有轻量化、高效的特点,可灵活嵌入各类视觉任务中。

2026-01-23 17:38:03 254

图像超分辨率WDSR的Pytorch复现代码,注释详细,含科研绘图,最优SSIM和PSNR的模型权重文件(x2、x3、x4)

保姆级使用教程:https://blog.csdn.net/qq_36584673/article/details/138310851 core/data:数据预处理相关库 div2k.py:将DIV2K训练集和测试集制作为h5格式并转为Tensor utils.py:数据预处理相关操作,包含读取图像、PIL转Numpy、数据增强等 core/model:模型库 common.py:图像均值偏移,DIV2K数据集独有操作 wdsr_a.py:WDSR-A模型实现 wdsr_b.py:WDSR-B模型实现 option.py:各种参数 datasets:数据集存放文件夹 epoch:日志和模型保存文件夹 pytorch_ssim:计算SSIM的库。 draw_evaluation.py:绘制Loss和PSNR与Epoch的关系曲线图 eval.py:在DIV2K验证集上验证模型 test.py:测试单张图像,将超分结果保存在data文件夹中 test_benchmark.py:测试5个benchmark,控制台输出平均PSNR和SSIM train.py:训练WDSR 详细使用见文章

2024-04-30

图像超分辨率RDN的Pytorch版本复现代码,注释详细,易读易复用,含最优SSIM和PSNR的模型权重文件(x2、x3、x4)

配套文章:https://blog.csdn.net/qq_36584673/article/details/138188783 data:测试图像文件夹。图像的超分结果保存在此 datasets:数据集文件夹。包括训练集、验证集和测试集 epoch:模型文件夹。不同放大倍数下,训练过程中的模型、训练结束后的最优模型和相关指标的csv文件保存在此 dataset.py:将h5数据集转成DataLoader的输入格式 draw_evaluation.py:绘制Loss、PSNR、SSIM与Epoch的关系曲线图,保存在Plt文件夹中 models.py:RDN模型实现 prepare.py:制作h5格式的训练集和验证集 test.py:测试单张图像,将超分结果保存在data文件夹中 test_benchmark.py:测试5个benchmark,控制台输出平均PSNR和SSIM train.py:训练RDN utils.py:相关操作,比如RGB转YCbCr、类型转换、计算PSNR等 项目代码的详细使用方法见配套文章。

2024-04-28

Python实现多图像转换成连贯的PDF文件,支持所有图片格式,可预览、裁剪、自定义PDF布局、设置图像顺序、PDF质量选择等

启动应用程序后,用户只需点击其中一个加载按钮,即可导入图像进行 PDF 转换。用户可以选择包含图片的文件夹或单个文件。图片加载到界面后,将显示在预览部分。 程序提供了多种选项,用于自定义生成的 PDF 的布局。用户可以选择不同的预设图像排序顺序,即文件名称、创建日期或最后修改时间。此外,通过调整左、右、上和下边框,还可以裁剪图像,并排除不必要或不想要的边框或图像部分(如截图中的任务栏),既可以裁剪每个文件,也可以一次裁剪所有文件。另一个选项是 PDF 的最终布局。通过单击其中一个布局图标,用户可以在为每个图像创建独立页面或将相邻的两个图像合并为双页之间进行切换。为了适应不同的语言习惯,双页提供了两种不同的阅读方向:从左到右或从右到左。此外,对于双页布局,还可以选择将第一张图片指定为独立封面,以增加自定义功能。 完成所有调整后,用户可以点击创建 PDF 按钮,打开一个单独的保存对话框。在这里,用户可以为生成的 PDF 指定保存路径,并从多个质量选项中进行选择,以尽量减少所需的内存空间,包括压缩级别、DPI 分辨率、图像缩放、灰度转换和文件大小优化。 看images/demo.gif

2024-04-28

(2020-2021)2d马里奥.zip

unity3d

2024-04-14

(2020)水果忍者.zip

unity3d

2024-04-14

Billiards游戏.zip

unity3d

2024-04-14

(2020)2d飞行的小鸟.zip

unity3d

2024-04-14

2019 深海2d鱼.zip

unity3d

2024-04-14

《泡泡龙》.zip

unity3d

2024-04-14

0020 C# unity3D坦克大战小游戏源码.zip

unity3d

2024-04-14

unity3d 马里奥2021-2023.zip

unity3d

2024-04-14

Bottle Shot (iPhone.Android) 移动版 酒吧砸瓶子.zip

unity3d

2024-04-14

(20019-2021)火影数独游戏.zip

unity3d

2024-04-14

《天天爱消除》 游戏Unity3D源码.zip

unity3d

2024-04-14

保卫萝卜(5.4).zip

unity3d

2024-04-14

(2020)3d飞行的小鸟.zip

unity3d

2024-04-14

vr虚拟现实3D迷宫.zip

unity3d

2024-04-14

《全民飞机大战》源码.zip

unity3d

2024-04-14

SciFi FPS(2019、2020).zip

unity3d

2024-04-14

VR保龄球游戏.zip

unity3d

2024-04-14

PPT绘制超分辨率论文中网络结构图,多种模板可供选择,包括3D立体效果的网络结构、2D平面结构以及相关组件的绘制

配套文章:https://blog.csdn.net/qq_36584673/article/details/139586886 (订阅专栏后可免费获取) 超分辨率论文中网络结构图的绘制,包括3D立体效果的网络结构、2D平面结构以及相关组件的绘制,包含3D立体网络结构、3D与2D结合网络结构、纯2D平面网络结构示意图。 模板算法包括:SRCNN、FSRCNN、EDSR、WDSR、RDN、SRMD。 各种基础神经网络模块应有尽有,足够科研绘图使用:网络层、卷积层、求和、求积符号等

2024-08-12

一步到位绘制计算机视觉领域的局部放大图,对比各模型的可视化效果,可多图实时查看局部放大区域对比,点击鼠标即可同时裁剪并保存局部放大区域!

配套文章:https://shixiaoda.blog.csdn.net/article/details/147999810,包含代码说明,使用演示,使用方法等。 使用python环境运行代码,然后执行如下步骤: 1. 运行代码,移动鼠标寻找感兴趣区域。 2. 在感兴趣区域悬停鼠标,点击鼠标左键保存。 3. 带红色框的HR和各算法的局部放大区域保存在结果文件夹中。 4. 使用PPT快速对齐成论文中的展示的效果即可(辅助虚线+组合)。 代码说明: # 设置图像文件夹路径,请替换为实际路径 image_folder = "./results" # 可选参数:放大倍数和放大区域尺寸 zoom_factor = 2 magnify_width = 100 magnify_height = 50 # 设置矩形框线宽 rect_width = 2 # 可自定义线宽 # 设置保存文件夹路径 save_folder = os.path.join(os.getcwd(), "zoomed_results") 注意事项: 1. 输入图像都以模型名称命名,一定要有名为HR的图像。 2. 对于超分,可视化结果一般比较x4,效果更明显。 3. 找感兴趣区域要有逻辑,根据你自己的模型,比如基于Transformer的方法更注重局部信息,或者某个Attention注重纹理,那么就找纹理区域,否则有的区域结果不是很明显。 4. 从找感兴趣区域到PPT制作,如果论文中的图包含四个子图,半个小时之内就能做完。

2025-05-16

图像拼接论文Seam-guided local alignment and stitching for large parallax images源码,跑通+注释

arXiv图像拼接论文:Seam-guided local alignment and stitching for large parallax images的最初版本源码。 对应文章:https://blog.csdn.net/qq_36584673/article/details/135198825 现在源码链接已改为https://github.com/tlliao/LPAM_seam-cutting 新的文章为:Leveraging Local Patch Alignment to Seam Cutting for Large Parallax Image Stitching

2025-02-27

图像超分专栏内文章单篇购买:图像超分论文复现:Pytorch实现WDSR!保姆级复现教程!代码注释详尽!完整代码和x2、x3、x4下的最优模型权重文件可以直接用!绘制论文曲线图!计算主流测试集的

文章链接https://shixiaoda.blog.csdn.net/article/details/138310851 注:专栏内文章单篇购买,单价会高于均价,谨慎购买,介意勿买! 建议直接购买专栏一劳永逸!

2025-02-19

图像去噪Self2Self(S2S)的Pytorch复现代码,跑通代码,原理详解,代码实现、网络结构、论文公式相互对应,注释清晰

资源配套文章:https://blog.csdn.net/qq_36584673/article/details/144281526 images:迭代过程验证图像保存位置 models:迭代过程模型保存位置 model.py:S2S模型实现 partialconv2d.py:部分卷积实现 self2self.py:S2S迭代过程,重点为伯努利采样实现、损失函数实现 utils.py:工具类 使用方式:见配套文章(包含非常详细的使用说明,轻松跑起来;模型算法讲解,代码复现思路,注释清晰;总结反思、创新思路;结果展示等)

2024-12-06

图像去噪ECNDNet的Pytorch复现代码,包含计算PSNR/SSIM代码以及训练好的模型文件,可以直接使用,训练自己的数据

资源配套文章:https://blog.csdn.net/qq_36584673/article/details/142257521 读页面最下面的README!!! data:去噪后图像结果保存位置 datasets:数据集所在文件夹 Plt:训练过程指标曲线可视化位置(Loss、PSNR、SSIM与Epoch关系曲线) weights:训练模型保存位置 dataset.py:封装数据集 draw_evaluation.py:绘制指标曲线 model.py:ECNDNet实现 prepare.py:制作h5数据集 test.py:测试ECNDNet train.py:训练ECNDNet utils.py:工具类 使用方式:见配套文章(包含完整的模型训练验证测试流程,非常详细的使用说明,轻松跑起来;模型算法讲解,代码复现思路,注释清晰;总结反思、创新思路;结果展示等)

2024-09-19

图像去噪Noise2Void(N2V)的Pytorch复现代码,基于U-Net模型实现,原理详解,注释详细,包含训练好的模型

资源配套文章:https://blog.csdn.net/qq_36584673/article/details/141996345 data:去噪后图像结果保存位置 datasets:数据集所在文件夹 Plt:训练过程指标曲线可视化位置(Loss、PSNR、SSIM与Epoch关系曲线) weights:训练模型保存位置 dataset.py:封装数据集 draw_evaluation.py:绘制指标曲线 example.py:测试Noise2Void main.py:训练Noise2Void model.py:模型实现(U-Net) utils.py:工具类 使用方式:见配套文章(包含完整的模型训练验证测试流程,非常详细的使用说明,轻松跑起来;模型算法讲解,代码复现思路,注释清晰;总结反思、创新思路;结果展示等)

2024-09-10

图像去噪RNAN的Pytorch复现代码,包含计算PSNR/SSIM代码以及训练好的模型文件,可以直接使用,训练自己的数据集

资源配套文章:https://blog.csdn.net/qq_36584673/article/details/141821026 读页面最下面的README!!! data:去噪后图像结果保存位置 datasets:数据集所在文件夹 Plt:训练过程指标曲线可视化位置(Loss、PSNR、SSIM与Epoch关系曲线) weights:训练模型保存位置 common.py:RNAN中的模块实现 dataset.py:封装数据集 draw_evaluation.py:绘制指标曲线 rnan.py:RNAN模型实现 test.py:计算测试集指标;保存去噪后图像 train.py:训练IRCNN utils.py:工具类 使用方式:见配套文章(包含完整的模型训练验证测试流程,非常详细的使用说明,轻松跑起来;模型算法讲解,代码复现思路,注释清晰;总结反思、创新思路;结果展示等)

2024-09-07

图像去噪Noise2Noise的Pytorch复现代码,基于REDNet30模型实现,N2N原理详解,注释详细,包含训练好的模型

资源配套文章:https://blog.csdn.net/qq_36584673/article/details/141957263 data:去噪后图像结果保存位置 datasets:数据集所在文件夹 Plt:训练过程指标曲线可视化位置(Loss、PSNR、SSIM与Epoch关系曲线) weights:训练模型保存位置 dataset.py:封装数据集 draw_evaluation.py:绘制指标曲线 example.py:计算测试集指标;保存去噪后图像 main.py:训练REDNet model.py:REDNet模型实现 README.md:相关说明 使用方式:见配套文章(包含完整的模型训练验证测试流程,非常详细的使用说明,轻松跑起来;模型算法讲解,代码复现思路,注释清晰;总结反思、创新思路;结果展示等)

2024-09-06

图像去噪IRCNN的Pytorch极简复现代码,包含计算PSNR/SSIM以及训练好的模型文件,可以直接使用,训练自己的数据集

资源配套文章:https://blog.csdn.net/qq_36584673/article/details/141672251 读页面最下面的README!!! data:去噪后图像结果保存位置 datasets:数据集所在文件夹 Plt:训练过程指标曲线可视化位置(Loss、PSNR、SSIM与Epoch关系曲线) weights:训练模型保存位置 dataset.py:封装数据集 draw_evaluation.py:绘制指标曲线 model.py:IRCNN模型实现 test.py:计算测试集指标;保存去噪后图像 train.py:训练IRCNN 使用方式:见配套文章(包含完整的模型训练验证测试流程,非常详细的使用说明,轻松跑起来;模型算法讲解,代码复现思路,注释清晰;总结反思、创新思路;结果展示等)

2024-08-30

图像去噪MWCNN的Pytorch复现代码,包含计算PSNR/SSIM代码以及训练好的模型文件,可以直接使用,训练自己的数据集

资源配套文章:https://blog.csdn.net/qq_36584673/article/details/141600616 读页面最下面的README!!! data:去噪后图像结果保存位置 datasets:数据集所在文件夹 Plt:训练过程指标曲线可视化位置(Loss、PSNR、SSIM与Epoch关系曲线) weights:训练模型保存位置 dataset.py:封装数据集 draw_evaluation.py:绘制指标曲线 model.py:MWCNN模型实现 test.py:计算测试集指标;保存去噪后图像 train.py:训练MWCNN 使用方式:见配套文章(包含完整的模型训练验证测试流程,非常详细的使用说明,轻松跑起来;模型算法讲解,代码复现思路,注释清晰;总结反思、创新思路;结果展示等)

2024-08-29

图像去噪MemNet的Pytorch复现代码,包含计算PSNR/SSIM代码以及训练好的模型文件,可以直接使用,训练自己的数据集

资源配套文章:https://blog.csdn.net/qq_36584673/article/details/141423575 读本页面最下面的README!!! data:去噪后图像结果保存位置 datasets:数据集所在文件夹 Plt:训练过程指标曲线可视化位置(Loss、PSNR、SSIM与Epoch关系曲线) weights:训练模型保存位置 dataset.py:封装数据集 draw_evaluation.py:绘制指标曲线 test_benchmark.py:计算测试集指标;保存去噪后图像 memnet.py:MemNet模型基础版本实现 memnet1.py:MemNet模型多监督版本实现 README.md:相关说明 train.py:训练MemNet utils.py:工具类 使用方式:见配套文章(包含完整的模型训练验证测试流程,非常详细的使用说明,轻松跑起来;模型算法讲解,代码复现思路,注释清晰;总结反思、创新思路;结果展示等)

2024-08-25

图像去噪REDNet的Pytorch复现代码,包含计算PSNR/SSIM代码以及训练好的模型文件,可以直接使用,训练自己的数据集

资源配套文章:https://blog.csdn.net/qq_36584673/article/details/141471808 data:去噪后图像结果保存位置 datasets:数据集所在文件夹 Plt:训练过程指标曲线可视化位置(Loss、PSNR、SSIM与Epoch关系曲线) weights:训练模型保存位置 dataset.py:封装数据集 draw_evaluation.py:绘制指标曲线 example.py:计算测试集指标;保存去噪后图像 main.py:训练REDNet model.py:REDNet模型实现 README.md:相关说明 使用方式:见配套文章(包含完整的模型训练验证测试流程,非常详细的使用说明,轻松跑起来;模型算法讲解,代码复现思路,注释清晰;总结反思、创新思路;结果展示等)

2024-08-24

图像去噪RIDNet的Pytorch复现代码,包含计算PSNR/SSIM代码以及训练好的模型文件,可以直接用于真实图像去噪

资源配套文章:https://blog.csdn.net/qq_36584673/article/details/141284977 项目文件说明: data:测试单张图像文件夹 datasets:数据集所在文件夹 weights:训练模型保存位置 loader.py:封装数据集 predict.py:测试单张图像去噪视觉效果 RIDNet.py:RIDNet模型实现 test_benchmark.py:计算测试集PSNR/SSIM,保存测试集图像去噪结果 test_noise.py:测试图像加噪效果 train.py:训练RIDNet utils.py:工具类脚本,包含一些图像操作 使用方式:见下面的readme.md

2024-08-20

图像去噪DnCNN的Pytorch完复现代码,源码基础上添加DnCNN-B/CDnCNN-B、DnCNN-3的训练和测试复现

资源配套文章:https://blog.csdn.net/qq_36584673/article/details/139743314 文件说明: data:文件夹存放训练集和测试集 models:文件夹存放训练好的模型 results:文件夹存放去噪结果(可选是否保存) data_generator.py:制作数据集(切块,转成Tensor) main_test.py:在测试集上测试模型,输出去噪后图像,计算测试集上的平均PSNR和SSIM main_train.py:训练DnCNN 使用方式: 1.对应目标下放置数据集 2.运行main_train.py训练 3.运行main_test.py测试 训练和测试不同模型请修改对应的参数。无论是windows下还是linux下,建议修改parser的默认值为你所需要的值后再去跑,避免命令输错。 补充说明: 1. 资源中包含新增后的完整代码和训练好的模型权重文件,模型性能与论文中近似,可不训练直接测试 2. 更换路径和相关参数即可训练自己的图像数据集 3. 几乎实现论文中全部的图表,相当于整个工作自己做了一遍,非常全面。

2024-08-12

图像超分辨率RCAN的Pytorch复现代码,科研绘图,指标计算,最优SSIM和PSNR的模型权重文件(x2、x3、x4、x8)

配套文章:https://blog.csdn.net/qq_36584673/article/details/138571297 data:测试单张图像以及超分结果文件夹 datasets:数据集存放文件夹,包含训练集和测试集 Plt:Loss、PSNR、SSIM与Epoch关系曲线图存放位置 weights:模型权重文件存放位置 data_aug.py:离线数据增强 dataset.py:制作数据集,包括训练集(在线数据增强)和验证集 draw_evaluation.py:绘制Loss、PSNR、SSIM与Epoch的关系曲线图 example.py:测试单张图像超分结果 imresize.py:python实现matlab中的imresize main.py:训练RCAN model.py:RCAN模型实现 save_benchmark_sr.py:将测试集的SR保存 test_benchmark.py:测试5个benchmark,控制台输出平均PSNR和SSIM utils.py:图像处理,计算指标工具集 详细使用见配套文章

2024-05-22

图像超分辨率FSRCNN的最优SSIM和PSNR的模型权重文件(x2、x3、x4)

配套文章:https://blog.csdn.net/qq_36584673/article/details/138943167 必须使用上述文章中实现的模型才可以用资源,否则模型和权重文件不匹配则无法使用!

2024-05-16

图像超分辨率SRCNN的Pytorch复现代码,注释详细,含科研绘图,最优SSIM和PSNR的模型权重文件(x2、x3、x4)

保姆级使用教程:https://blog.csdn.net/qq_36584673/article/details/138836834 data:测试单张图像以及超分结果文件夹 datasets:数据集存放文件夹,包含训练集、验证集和测试集 Plt:Loss、PSNR、SSIM与Epoch关系曲线图存放位置 epochs:模型权重文件存放位置 dataset.py:封装数据集,h5转Tensor draw_evaluation.py:绘制Loss、PSNR、SSIM与Epoch的关系曲线图 test.py:测试单张图像超分结果 imresize.py:python实现matlab中的imresize train.py:训练SRCNN models.py:SRCNN模型实现 test_benchmark.py:测试benchmarks,控制台输出平均PSNR和SSIM utils.py:图像处理,计算指标工具集 代码详细使用说明,实现细节,请看上面的教程文章!

2024-05-14

图像超分辨率ARCNN的Pytorch复现代码,注释详细,含科研绘图,各Quality下的最优SSIM和PSNR的模型权重文件

保姆级使用教程:https://blog.csdn.net/qq_36584673/article/details/138668792 data:测试单张图像以及超分结果文件夹 datasets:数据集存放文件夹,包含训练集、验证集和测试集 Plt:Loss、PSNR、SSIM与Epoch关系曲线图存放位置 weights:模型权重文件存放位置 dataset.py:制作数据集,在线数据增强 draw_evaluation.py:绘制Loss、PSNR、SSIM与Epoch的关系曲线图 example.py:测试单张图像超分结果 imresize.py:python实现matlab中的imresize main.py:训练ARCNN model.py:ARCNN与FastARCNN模型实现 test_benchmark.py:测试benchmarks,控制台输出平均PSNR和SSIM utils.py:图像处理,计算指标工具集 详细使用说明见教程文章

2024-05-13

图像超分辨率IDN的Pytorch复现代码,注释详细,含科研绘图,最优SSIM和PSNR的模型权重文件(x2、x3、x4)

保姆级使用教程:https://blog.csdn.net/qq_36584673/article/details/138493007 data:测试单张图像以及超分结果文件夹 datasets:数据集存放文件夹,包含训练集和测试集 Plt:Loss、PSNR、SSIM与Epoch关系曲线图存放位置 weights:模型权重文件存放位置 data_aug.py:离线数据增强 dataset.py:制作数据集 draw_evaluation.py:绘制Loss、PSNR、SSIM与Epoch的关系曲线图 example.py:测试单张图像超分结果 imresize.py:python实现matlab中的imresize main.py:训练IDN model.py:IDN模型实现 test_benchmark.py:测试4个benchmark,控制台输出平均PSNR和SSIM utils.py:图像处理,计算指标工具集 详细使用见教程文章

2024-05-08

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除