记一个在训练模型过程中自己给自己挖的坑

  根据一个图像拼接和融合的需求,训练一个模型,输入为一组图像,输出为一张图像,输入数据和ground truth的像素值都归一化到[-1, 1]

  我当时使用了UNet结构,卷积和反卷积都单独封装了一个函数,方便调用,在函数内部,卷积都会默认接一relu激活层

  训练结果出来后,发现内容基本都能和ground truth对应上,但是颜色很怪异,特别接近灰色,如下

  然后寻找原因许久未果,陷入纠结。第二天开始思考修改网络,猛然发现,我希望最后一层的输出为[-1, 1],但最后一层卷积默认接了relu激活层,因此[-1, 0]范围的数值全被剔除掉了。

  感觉自己掉进了自己挖的坑,还TM差点没爬出来。

  以此博客记录此坑并对日后提供经验!

转载于:https://www.cnblogs.com/Peyton-Li/p/9233321.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值