中兴捧月算法挑战赛-RAW夜景图像去噪总结

最终排名 85/1159

网址:https://zte.hina.com/zte/denoise
在这里插入图片描述
无缘复赛,太菜了,不好意思说自己学去噪的了,代码会开源,但是感觉没什么人看吧

尝试过的模型

  • DnCNN:很差,0分
  • UNet:很蓝,0分
  • DAN:严重丢失细节,9分
  • PMRID:48分
  • FFDNet:只能做灰度图像
  • SwinIR:输入图像太大了,爆显存
  • DPIR:使用UNetRes+baseline达到20.97分
  • baseline+baseline:38.42分
  • HINet:很差
  • Uformer:只能处理宽高一样的图片
  • SRMNet:可以训练,好像很差?
  • COLA-Net:爆显存
  • DAGL:爆显存
  • SADNet:CUDA报错了
  • HWMNet:小波变换维度报错
  • SCUNet:爆显存
  • NBNet:报错
  • DPHSIR:很差
  • AODN:很差
  • FAN:只适合rgb
  • HDRUNet:报错
  • AirNet:多个输入,无法用
  • 旷视第一名:meg,没法用
  • 旷视第二名:torch,很差
  • 旷视第三名:meg,没法用
  • 旷视第七名:meg,没法用
  • 旷视第九名:meg,没法用
  • 旷视第十名:torch,很差,验证报错
  • DGUNet:爆显存
  • MIRNet:使用warmup学习率,50.77分
  • MIRNetv2:很差
  • Restormer:使用warmup学习率,48.28分,很低
  • NAFNet:很差

效果比较好的模型

  • CycleISP:改进网络(不需要Variance),验证集53.87(e=160),测试集51.46分,使用warmup学习率验证集最高55.71
  • MPRNet:使用warmup学习率,尝试加大网络结构(验证集57.01(e=473),测试集55.41分)

网络改进

  • 尝试切块训练和数据增强:尝试分块训练MPRNet,训练比较久,很差
  • 数据增强:很差
  • 换了L1损失:没有改进

Attention Mechanisms in Computer Vision: A Survey
https://arxiv.org/abs/2111.07624

通道:
Squeeze-and excitation networks
MPRNet用了:Image Super-Resolution Using Very Deep Residual Channel Attention Networks
Ecanet: Efficient channel attention for deep convolutional neural networks
Context encoding for semantic segmentation
Global secondorder pooling convolutional networks
Srm : A style-based recalibration module for convolutional neural networks
Gated channel transformation for visual recognition
Fcanet: Frequency channel attention networks
Spatio-temporal channel correlation networks for action classification
You look twice: Gaternet for dynamic filter selection in cnns
Spsequencenet: Semantic segmentation network on 4d point clouds

空间:
70篇非常多

通道-空间:
19篇非常多,列举重要的
CBAM: convolutional block attention module,训练太慢了,停止
Dual attention network for scene segmentation,爆显存
SCA-CNN: spatial and channel-wise attention in convolutional networks for image captioning
Bam: Bottleneck attention module,很多错误
Simam: A simple, parameter-free attention module for convolutional neural networks
Coordinate attention for efficientmobile network design,可以训练,很差
SA-Net: Shuffle Attention for Deep Convolutional Neural Networks,可以训练,很差
MIRNet中的DAU,可以训练,很差

后续提升

损失函数:L2+L1+FFT(尝试中),MSSSIM,NAFNet中的PSNRloss
去模糊的网络:DeepRFT(signal number 32报错),mimonet
加入跳跃连接
NAFNet改参数([4,8] 8 [4,8]随机切图旋转)
unet+mixup
GAN的使用

学习大佬开源代码

第17名:https://github.com/Fivethousand5k/ZTE_RawDenoise
第58名:https://blog.csdn.net/weixin_44875593/article/details/124909747

  • 6
    点赞
  • 35
    收藏
    觉得还不错? 一键收藏
  • 6
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值