毕设做关于语义分割的,前段时间跑通一个基于resnet 101的deeplab v2的代码,但mIOU不管怎么训练都上不去,经过问师兄和查找资料可能的原因有:
-
在当前学习率下模型已经饱和;
-
deeplabv2 本身mIOU 最高66%,加之算法实现过程没有优化
由于时间关系我准备换一个参考代码,经介绍我选择Github中:
https://github.com/GeorgeSeif/Semantic-Segmentation-Suite参考
再次声明:本人基础不太好,遇到的问题可能比较常识,解决方法仅供参考,有错误的地方请大家赐教,共同进步。接下来正式开始:
-
等待下载ing。。。
大概528M左右,,直接在浏览器上下载.zip总是失败,于是我使用迅雷下载,果然不但速度快而且完美下好了。 -
解压后目录下是这样的文件。
-
直接整个文件夹导入pycharm中,(我的环境:python 3.7+tensorflow-gpu 1.12.0)先大概看一下文件里的东西,感觉很齐乎的,直接train试试水。结果报错如下:
发现报错原因是没有下载好res