keras进行训练loss出现nan,不知道问题出在哪里了

作者在复现一篇关于指纹核心点估计的论文时,使用MLN和MRN网络进行训练,遇到NaN值问题。尽管数据集无全黑掩膜,但训练初期即出现NaN,即使调整学习率至极低值问题依旧,且主要在第二个网络阶段。作者寻求帮助,询问是否可能的原因及解决方案,未提及是否尝试过数据增强。
摘要由CSDN通过智能技术生成

我对一篇论文进行复现,论文主题是指纹核心点估计,论文doi: (10.1109/IWBF57495.2023.10157521)

 其代码地址:https://github.com/arsh-k/core-point-detection 

他分为个网络(mln与mrn)

他没有公开核心点数据集,都是用公开指纹数据集进行打标签,我按原文的形式进行了打标签,其中mln中我训练,前几轮就出现了nan,这是什么情况,有没有大佬帮忙看一下是否遇到了这种情况,我调了lr甚至调到原论文0.001也还是一样的效果,只是nan出现的早完问题,我也检查了数据集,没有出现全黑的掩膜,只是打标签就算打的不准也是在第二个网络中显现,就算显现应该也是准确率会降低而已,不知道为什么出现这种情况,请各位大佬帮忙看看,以下是我没进行数据增强的情况,进行数据增强后效果类似

 

 

  • 5
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值