DeblurGANv2的改进策略1-更换不同的优化器optimizer

优化器是网络训练中的重要组成部分
目前常用的优化器有Adam,adadelta,AdaMax,Nadam,RMSProp和SGD等等。在DeblurGANv2的源代码中,使用的优化器为Adam,以下将尝试不同的优化器对训练过程和训练结果的影响,对DeblurGANv2进行改进。
修改步骤:
修改1:config.yaml配置文件中的优化器更改
在这里插入图片描述
修改2:train.py文件中定义所需要的优化器,
注:有些优化器pytorch已经内置,可以直接调用,没有内置的需要定义优化器,然后进行调用

在这里插入图片描述
使用Adam优化器的训练结果(源代码使用这个优化器)
在这里插入图片描述

使用adadelta优化器的训练结果
在这里插入图片描述

使用AdaMax优化器的训练结果
在这里插入图片描述

使用Nadam优化器的训练结果
在这里插入图片描述
使用RMSProp优化器的训练结果
在这里插入图片描述
使用SGD优化器的训练结果
在这里插入图片描述
更换不同的优化器,对性能指标的影响
PSNR指标对比
在这里插入图片描述
PSNR指标对比平滑操作(分析-信号处理-平滑-窗口点数20)
在这里插入图片描述

SSIM指标对比
在这里插入图片描述
SSIM指标对比平滑操作
在这里插入图片描述

总结:
1.更换优化器,以PSNR数据为例,SGD和adadelta的值较低,adam和RMSProp较高,其中adam是源码使用的优化器
2.更换优化器,以SSIM数据为例,SGD和adadelta的值较低,adam和RMSProp较高,其中adam是源码使用的优化器
总的来说,还是原来的优化器Adam和修改为RMSProp,具有更好的效果,PSNR和SSIM更高!

  • 11
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值