训练VainF/DeepLabV3Plus-Pytorch

conda activate pytorch
cd /DeepLabV3plus-Pytorch-master

#先打开visdom (指定端口号,和运行指令里的端口号一致)
python -m visdom.server -p 28333

#进行训练
python main.py --model deeplabv3plus_mobilenet --dataset cityscapes --enable_vis --vis_port 28333 --gpu_id 1  --lr 0.1  --crop_size 512 --batch_size 8 --output_stride 16 --data_root ./datasets/data/cityscapes 

#预测指定文件夹的图像并将彩色图结果保存在指定文件夹中
python predict.py --input /home/siasun16/liyangnet2/DeepLabV3Plus-Pytorch-master/datasets/data/cityscapes/leftImg8bit/val --dataset cityscapes --model deeplabv3plus_mobilenet --ckpt checkpoints/best_deeplabv3plus_mobilenet_cityscapes_os16.pth --save_val_results_to /home/siasun16/liyangnet2/DeepLabV3Plus-Pytorch-master/datasets/data/result2

#对这500张验证集合进行验证,将图片保存在指定文件夹,并在终端显示结果
python main.py --model deeplabv3plus_mobilenet --dataset cityscapes --gpu_id 1 --lr 0.1 --crop_size 768 --batch_size 4 --output_stride 16 --data_root ./datasets/data/cityscapes --ckpt checkpoints/best_deeplabv3plus_mobilenet_cityscapes_os16.pth --test_only --save_val_results

#验证结果如下:



继续使用,查看各个miou

#命令行运行pre_dan.py,将val集预测成单通道的图像,该代码顺便命名格式修改一致了。

python pre_dan.py --input /home/siasun16/liyangnet2/DeepLabV3Plus-Pytorch-master/datasets/data/cityscapes/leftImg8bit/val --dataset cityscapes --model deeplabv3plus_mobilenet --ckpt checkpoints/best_deeplabv3plus_mobilenet_cityscapes_os16.pth --save_val_results_to /home/siasun16/liyangnet2/DeepLabV3Plus-Pytorch-master/datasets/data/result3000
#直接运行writeval.py,将预测集写进一个val.txt
#直接运行get_miou.py,出结果


更新

#先打开visdom (指定端口号,和运行指令里的端口号一致)
python -m visdom.server -p 28333


#查看一下,xception模型的预训练权重加载位置是否正确。

python main.py --model deeplabv3plus_xception --dataset cityscapes --enable_vis --vis_port 28330 --gpu_id 0,1 --lr 0.1 --crop_size 768 --batch_size 8 --output_stride 16 --data_root /home/siasun16/liyangnet2/DeepLabV3Plus-Pytorch-master/datasets/data/cityscapes


#查看一下验证集cityscapes/leftImg8bit/val (500张彩色图)位置是否正确
#先测试一下验证集,预测结果(单通道图)放在pre1里,注意位置是否需要修改 
python pre_dan.py --input /home/siasun16/liyangnet2/DeepLabV3Plus-Pytorch-master/datasets/data/cityscapes/leftImg8bit/val --dataset cityscapes --model deeplabv3plus_xception --ckpt checkpoints/best_deeplabv3plus_xception_cityscapes_os16.pth --save_val_results_to /home/siasun16/liyangnet2/DeepLabV3Plus-Pytorch-xception/datasets/data/pre1


#直接运行writeval.py,将预测集pre1(图片名称)写进一个val.txt  #注意是否修改位置

#直接运行get_miou.py,出结果。注意main函数里三个文件的位置是否正确。
#分别是
#官方给定的验证集(500张黑白图)
#本模型的训练集(pre1)
#val.txt

  • 2
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
要配置deeplabv3-plus-pytorch训练环境,您需要进行以下步骤: 1. 安装Python:确保已经安装了Python,并建议使用Python 3.6或更高版本。 2. 创建虚拟环境(可选):为了隔离不同项目的依赖,建议在项目中使用虚拟环境。您可以使用`venv`模块或第三方工具(如`conda`)创建和管理虚拟环境。 3. 安装PyTorch和TorchVision:PyTorch是进行深度学习的基础库,而TorchVision提供了处理图像数据集的工具。您可以使用以下命令安装PyTorch和TorchVision: ``` pip install torch torchvision ``` 如果您需要特定的PyTorch版本,可以在安装命令中指定版本号。 4. 克隆deeplabv3-plus-pytorch仓库:将deeplabv3-plus-pytorch的代码库克隆到本地: ``` git clone https://github.com/VainF/DeepLabV3Plus-Pytorch.git ``` 5. 安装依赖项:进入克隆的代码库目录,并使用以下命令安装所需的Python依赖项: ``` pip install -r requirements.txt ``` 6. 下载预训练模型权重(可选):如果您想从预训练模型开始训练,您可以下载已经预训练好的权重。可以在代码库的README文件中找到下载链接,并将权重文件保存到适当的位置。 7. 准备数据集:根据您的任务和数据集,将图像和标签数据组织到相应的文件夹中。确保数据集的文件路径与代码库中的配置文件相对应。 8. 开始训练:运行相应的训练脚本,例如`train.py`,并根据需要配置训练参数。您可以通过命令行参数或修改配置文件来设置训练参数。 以上是一个基本的环境配置过程,具体的步骤可能会因为您的特定环境和需求而有所不同。请参考deeplabv3-plus-pytorch代码库中的文档和说明,以获取更详细的配置指导。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值