使用keras版本的yoloV3训练并在VOC数据集上测试

yoloV3主页:https://pjreddie.com/darknet/yolo/

keras-yolo3代码:https://github.com/qqwweee/keras-yolo3

VOC数据集:http://host.robots.ox.ac.uk/pascal/VOC/


一、环境需求:

tensorflow

keras

(编译运行时按照错误提示pip install 相应库文件即可)


二、Demo:

1、下载代码:

git clone https://github.com/qqwweee/keras-yolo3


2、下载yoloV3权重文件:

https://pjreddie.com/media/files/yolov3.weights


3、将darknet下的yolov3配置文件转换成keras适用的h5文件:

python convert.py yolov3.cfg yolov3.weights model_data/yolo.h5




4、运行预测图像程序(预测视频程序跳过):

python yolo.py


输入需要预测的图片路径即可,示例如下,可以看到结果还是蛮准确的,但对于某些小目标(如图片左半部分)仍然未能很好地检测出来:



三、训练:

1、将VOC数据集放在代码同一目录下,然后先生成需要进行训练的txt文件,包括图片路径、类别和bbox,一张图片有多个目标时用' '隔开,根据使用VOC数据集的年份修改voc_annotation.py文件中的sets,根据需要训练的类别修改classes(如注释中只使用person类)。

sets=[('2007', 'train'), ('2007', 'val'), ('2007', 'test')]

# classes = ['person']
classes = ["aeroplane", "bicycle", "bird", "boat", "bottle", "bus", "car", "cat", "chair", "cow", "diningtable", "dog", "horse", "motorbike", "person", "pottedplant", "sheep", "sofa", "train", "tvmonitor"]


运行生成txt文件程序,根据sets得到三个不同的txt文件,方便用于做训练、验证和测试:

python voc_annotation.py


2、修改train.py中的annotation_path为刚刚生成的txt文件,data_path是根据txt提供的训练图像提取出的数据信息并保存为了npz格式(注意,如果需要更换训练数据的话,需要删除上一次生成的npz文件,或者在给get_training_data函数传参时设置load_previous=False),output_path是当前训练的模型保存路径,log_dir记录了每一次迭代生成的模型,classes_path是需要训练的目标种类,根据上一步修改过的classes调整(如注释中选择的txt文件中只包含自己需要训练的类别),anchors_path是锚点文件(因还不太了解所以没有改过)。

    annotation_path = '2007_train.txt'
    data_path = 'train.npz'
    output_path = 'model_data/my_yolo.h5'
    log_dir = 'logs/000/'
    #classes_path = 'model_data/my_classes.txt'
    classes_path = 'model_data/voc_classes.txt'
    anchors_path = 'model_data/yolo_anchors.txt'


同时,在训练时还会存在这样的情况:可能数据集中某些图像中不包含你想要训练的目标,那么可以在生成txt文件时就筛除掉,或者在读取训练数据时跳过没有数据的那一行,这里作者选择后者,修改train.py中get_training_data函数:

with open(annotation_path) as f:
        for line in f.readlines():
            line = line.split(' ')
            # skip the rows contain no target
            if len(line) <= 1:
                continue
            filename = line[0]
            image = Image.open(filename)


这里需要注意的是,如果想要训练某一类或某几类特定的目标类别,必须要同时修改以上两步中voc_annotation.py和train.py相应的位置,否则可能会报维数不符的错误。

修改完成后,开始训练:

python train.py


随着epoch迭代,会得到越来越小的loss,直到loss达到某一阈值自动停止,或者epoch达到上限也会停止。可以在train.py中的train函数中修改预设的epochs。



3、修改yolo.py,使用自己训练的模型预测图像:

        #self.model_path = 'model_data/yolo.h5'
        self.model_path = 'model_data/my_yolo.h5'
        self.anchors_path = 'model_data/yolo_anchors.txt'
        #self.classes_path = 'model_data/coco_classes.txt'
        self.classes_path = 'model_data/my_classes.txt'


因为只在2007VOC训练集上进行30次的迭代训练,所以得到的模型效果不算好,在VOC测试图像上的预测效果还可以,但不够精确。如果测试图像更大,差的预测结果就比较明显了,因此需要更多训练数据来训练自己的模型。



四、在VOC2007上评估MAP

1、具体过程参考:YOLO在VOC2007数据集计算mAP 备忘

2、输出文件格式要求:Pascal VOC 数据集介绍


五、其他:

1、如果想要使用自己的权重继续训练,在train.py中的create_model函数中修改weights_path。如果不想使用预训练的权重,设置传给create_model函数的参数load_pretrained=False。

  • 12
    点赞
  • 95
    收藏
    觉得还不错? 一键收藏
  • 106
    评论
评论 106
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值