语义分割中的一些参数设置及其意义
近期一直在研究深度学习中语义分割任务,现在想总结一下训练策略和参数的设置
1.FCN
在voc-fcn-alexnet中
train_net: "train.prototxt" | |
test_net: "val.prototxt" | |
test_iter: 736 | |
# make test net, but don't invoke it from the solver itself | |
test_interval: 999999999 | |
display: 20 | |
average_loss: 20 | |
lr_policy: "fixed" | |
# lr for normalized softmax | |
base_lr: 1e-4 | |
# standard momentum | |
momentum: 0.9 | |
# gradient accumulation | |
iter_size: 20 | |
max_iter: 100000 | |
weight_decay: 0.0005 | |
snapshot: 4000 | |
snapshot_prefix: "snapshot/train" | |
test_initialization: false |
部分参数解释:
display: 20 每训练20次显示一次结果
lr_policy: "fixed" 意味着保持base_lr不变
snapshot: 4000 设置训练4000次保存一次
2.ERFnet
一共23层网络
因为源码被作者封了,所以调整了一下。
3 deeplab v3+
执行完一次全部的数据称为一个epochs。上面是在imagenet预训练的参数。
下面是在预训练之后的参数
4.mobile-segmentation