目前遇到的问题是:我用我的baseline生成掩码之后,去训练DeepLab结果是这样的
这个是baseline复现出来的结果,而我加完模块之后得出的掩码用以训练DeepLab的结果是这样的:
前后两者生成的掩码中的每个像素对应的都是类标签,都是没有问题的,唯一的区别在于,前者是包含边界像素的,也就是说分割出来除了对应的类标签像素,还有值为255的边界像素(在转换为png格式的时候会自动归一化,也就是每个像素都会被除以255,而边界像素都变成了1),而后者是没有边界像素的,只有类标签像素。
这是前者
这是后者:
其中图1图2是有对应的类标签像素的,并不是纯黑色的图,放大可以看见。
这是前者debug中可视化每个像素的数组图:
这是后者的:
他俩除了精细程度以外,只有这个边界像素的区别。
可是我发现,其他绝大部分的文章其实都是没有边界像素255的,都是只有对应的类标签像素,如后者的图那样,那他们是怎么用只有类标签的像素去训练deeplab的呢?