SSD-pytorch踩坑及修正(StopIteration)

SSD-pytorch踩坑(StopIteration)

ssd-pytorch代码链接

github上的:https://github.com/amdegroot/ssd.pytorch

bug

这篇博客写的基本上没什么问题,但是其实也有坑。
https://blog.csdn.net/sinat_39307513/article/details/84646177

在这篇博客的评论区里面出现了
“博主您好,我训练时候损失降得又快又低,但是运行eval.py时的精度又很低,博主有遇到过这个问题吗?是什么原因大概”
“博主你好,请问我用自己的数据集训练过后,用eval.py计算AP,mAP结果全是零,这是怎么回事呢?谢谢”

我在运行

python train.py

的时候,发现确实loss降的异常的快。
运行

python eval.py

的时候mAP是一个很接近0的数。

经过思考,发现问题出在原来博客的第4个点:
(下面这段是从原文中复制来的)

4.train.py代码中,在迭代过程中,每次执行batch张图片,通过images, targets = next(batch_iterator)读取图片时,如果next()中没有数据后会触发Stoplteration异常,使用下面语句替换 images, targets = next(batch_iterator)将解决这种异常问题。


while True:
    try:
        # 获得下一个值:
        images, targets = next(batch_iterator)
 
    except StopIteration:
        # 遇到StopIteration就退出循环
        break
————————————————
【版权声明:本文为CSDN博主「花花花哇_」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:[https://blog.csdn.net/sinat_39307513/article/details/84646177](https://blog.csdn.net/sinat_39307513/article/details/84646177)】
————————————————

但是其实是不能够这样改的,这么改的思路是遇到了问题就跳过去,这样很明显是不可以的,会导致不断的跳出循环,没有在进行有效的train,所以loss会降得很快,最后的结果也不好。

解决方案

这个问题出现的原因是dataloader导入数据之后经过了一轮的迭代,再次导入的时候发现没有数据了,也就是iterable完成之后,触发了StopIteration,然后跳出了循环。

既然再次导入的时候没有数据了,那我们就再用一个dataloader就行了。

将train.py(165行)的

images, targets = next(batch_iterator)

更改成:

try:
	images, targets = next(batch_iterator)
except StopIteration:
	batch_iterator = iter(data_loader)
	images, targets = next(batch_iterator)

问题解决。

这篇博客《SSD-Pytorch训练和测试自己的数据集(新手必看)》写得挺全面的:https://blog.csdn.net/dingkm666/article/details/88775428
希望被更多需要帮助的人发现,里面也有很多关于debug的,不只是训练测试自己的数据集。

  • 9
    点赞
  • 13
    评论
  • 20
    收藏
  • 一键三连
    一键三连
  • 扫一扫,分享海报

©️2021 CSDN 皮肤主题: 大白 设计师:CSDN官方博客 返回首页
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、C币套餐、付费专栏及课程。

余额充值