SSD-pytorch踩坑(StopIteration)
ssd-pytorch代码链接
github上的:https://github.com/amdegroot/ssd.pytorch
bug
这篇博客写的基本上没什么问题,但是其实也有坑。
https://blog.csdn.net/sinat_39307513/article/details/84646177
在这篇博客的评论区里面出现了
“博主您好,我训练时候损失降得又快又低,但是运行eval.py时的精度又很低,博主有遇到过这个问题吗?是什么原因大概”
“博主你好,请问我用自己的数据集训练过后,用eval.py计算AP,mAP结果全是零,这是怎么回事呢?谢谢”
我在运行
python train.py
的时候,发现确实loss降的异常的快。
运行
python eval.py
的时候mAP是一个很接近0的数。
经过思考,发现问题出在原来博客的第4个点:
(下面这段是从原文中复制来的)
4.train.py代码中,在迭代过程中,每次执行batch张图片,通过images, targets = next(batch_iterator)读取图片时,如果next()中没有数据后会触发Stoplteration异常,使用下面语句替换 images, targets = next(batch_iterator)将解决这种异常问题。
while True:
try:
# 获得下一个值:
images, targets = next(batch_iterator)
except StopIteration:
# 遇到StopIteration就退出循环
break
————————————————
【版权声明:本文为CSDN博主「花花花哇_」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:[https://blog.csdn.net/sinat_39307513/article/details/84646177](https://blog.csdn.net/sinat_39307513/article/details/84646177)】
————————————————
但是其实是不能够这样改的,这么改的思路是遇到了问题就跳过去,这样很明显是不可以的,会导致不断的跳出循环,没有在进行有效的train,所以loss会降得很快,最后的结果也不好。
解决方案
这个问题出现的原因是dataloader导入数据之后经过了一轮的迭代,再次导入的时候发现没有数据了,也就是iterable完成之后,触发了StopIteration,然后跳出了循环。
既然再次导入的时候没有数据了,那我们就再用一个dataloader就行了。
将train.py(165行)的
images, targets = next(batch_iterator)
更改成:
try:
images, targets = next(batch_iterator)
except StopIteration:
batch_iterator = iter(data_loader)
images, targets = next(batch_iterator)
问题解决。
这篇博客《SSD-Pytorch训练和测试自己的数据集(新手必看)》写得挺全面的:https://blog.csdn.net/dingkm666/article/details/88775428
希望被更多需要帮助的人发现,里面也有很多关于debug的,不只是训练测试自己的数据集。