一、安装
(1)首先anaconda创建虚拟环境: conda create -n faster(自定义) python=3.8
(2)activate faster
(3)pip 安装所需要的环境:
- 需要先查看自己的navidia,我这里是12.0但是安装的pytorch的链接是:
Previous PyTorch Versions | PyTorch
我选择的是:
pip install torch==1.13.1+cu116 torchvision==0.14.1+cu116 torchaudio==0.13.1 --extra-index-url https://download.pytorch.org/whl/cu116
- 安装cuda:CUDA Toolkit 12.0 Downloads | NVIDIA Developer
- 安装cudnn——CSDN上随便搜一个安装即可。
二、github下载——下载的是作者的代码,不是我写的
GitHub - bubbliiiing/faster-rcnn-pytorch: 这是一个faster-rcnn的pytorch实现的库,可以利用voc数据集格式的数据进行训练。
三、修改代码
在该作者的github上面继续下载好pth的四个模型。
直接执行predict.py代码即可查看运行结果。
四、跑模型——训练自己的数据集,前面三个步骤都是准备,能完成第三步骤说明环境配置ok
这个txt怎么来的呢?使用下面的代码放在根目录即可完成运行,如果有错,也是default路径有问题修改即可。
# coding:utf-8
import os
import random
import argparse
parser = argparse.ArgumentParser()
#xml文件的地址,根据自己的数据进行修改 xml一般存放在Annotations下
parser.add_argument('--xml_path', default='VOCdevkit/VOC2007/Annotations', type=str, help='input xml label path')
#数据集的划分,地址选择自己数据下的ImageSets/Main
parser.add_argument('--txt_path', default='VOCdevkit/VOC2007/ImageSets/Main', type=str, help='output txt label path')
opt = parser.parse_args()
trainval_percent = 1.0 # 训练集和验证集所占比例。 这里没有划分测试集
train_percent = 0.7 # 训练集所占比例,可自己进行调整
xmlfilepath = opt.xml_path
txtsavepath = opt.txt_path
total_xml = os.listdir(xmlfilepath)
if not os.path.exists(txtsavepath):
os.makedirs(txtsavepath)
num = len(total_xml)
list_index = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list_index, tv)
train = random.sample(trainval, tr)
file_trainval = open(txtsavepath + '/trainval.txt', 'w')
file_test = open(txtsavepath + '/test.txt', 'w')
file_train = open(txtsavepath + '/train.txt', 'w')
file_val = open(txtsavepath + '/val.txt', 'w')
for i in list_index:
name = total_xml[i][:-4] + '\n'
if i in trainval:
file_trainval.write(name)
if i in train:
file_train.write(name)
else:
file_val.write(name)
else:
file_test.write(name)
file_trainval.close()
file_train.close()
file_val.close()
file_test.close()
其中Annotations里面放的是xml文件,JPEGImages里面放的是jpg图片。
接下来就比较关键了,需要创建一个自己的txt,也就是类别信息
代码是:
随后修改voc_annotation.py的代码——这个我不太懂,但是我一开始是运行的0,然后运行1,然后运行2.
这里train.py我的电脑带不动,所以都改成了1,是可以跑的。模型我用的默认的resnet。
五、运行结果
结果还没跑出来,还在努力