keras txt 读取训练数据_使用keras版本的yoloV3训练并在VOC数据集上测试

使用keras版本的yoloV3训练并在VOC数据集上测试

发布时间:2018-05-11 16:44,

浏览次数:394

, 标签:

keras

yoloV

VOC

yoloV3主页:https://pjreddie.com/darknet/yolo/

keras-yolo3代码:https://github.com/qqwweee/keras-yolo3

VOC数据集:http://host.robots.ox.ac.uk/pascal/VOC/

一、环境需求:

tensorflow

keras

(编译运行时按照错误提示pip install 相应库文件即可)

二、Demo:

1、下载代码:

git clone https://github.com/qqwweee/keras-yolo3

2、下载yoloV3权重文件:

https://pjreddie.com/media/files/yolov3.weights

3、将darknet下的yolov3配置文件转换成keras适用的h5文件:

python convert.py yolov3.cfg yolov3.weights model_data/yolo.h5

4、运行预测图像程序(预测视频程序跳过):

python yolo.py

输入需要预测的图片路径即可,示例如下,可以看到结果还是蛮准确的,但对于某些小目标(如图片左半部分)仍然未能很好地检测出来:

三、训练:

1、将VOC数据集放在代码同一目录下,然后先生成需要进行训练的txt文件,包括图片路径、类别和bbox,一张图片有多个目标时用'

'隔开,根据使用VOC数据集的年份修改voc_annotation.py文件中的sets,根据需要训练的类别修改classes(如注释中只使用person类)。

sets=[('2007', 'train'), ('2007', 'val'), ('2007', 'test')] # classes =

['person'] classes = ["aeroplane", "bicycle", "bird", "boat", "bottle", "bus",

"car", "cat", "chair", "cow", "diningtable", "dog", "horse", "motorbike",

"person", "pottedplant", "sheep", "sofa", "train", "tvmonitor"]

运行生成txt文件程序,根据sets得到三个不同的txt文件,方便用于做训练、验证和测试:

python voc_annotation.py

2、修改train.py中的annotation_path为刚刚生成的txt文件,data_path是根据txt提供的训练图像提取出的数据信息并保存为了npz格式(注意,如果需要更换训练数据的话,需要删除上一次生成的npz文件,或者在给get_training_data函数传参时设置load_previous=False),output_path是当前训练的模型保存路径,log_dir记录了每一次迭代生成的模型,classes_path是需要训练的目标种类,根据上一步修改过的classes调整(如注释中选择的txt文件中只包含自己需要训练的类别),anchors_path是锚点文件(因还不太了解所以没有改过)。

annotation_path = '2007_train.txt'     data_path = 'train.npz'

output_path = 'model_data/my_yolo.h5'     log_dir = 'logs/000/'

#classes_path = 'model_data/my_classes.txt'     classes_path =

'model_data/voc_classes.txt'     anchors_path = 'model_data/yolo_anchors.txt'

同时,在训练时还会存在这样的情况:可能数据集中某些图像中不包含你想要训练的目标,那么可以在生成txt文件时就筛除掉,或者在读取训练数据时跳过没有数据的那一行,这里作者选择后者,修改train.py中get_training_data函数:

with open(annotation_path) as f:         for line in f.readlines():

line = line.split(' ')             # skip the rows contain no target

if len(line) <= 1:                 continue             filename = line[0]

image = Image.open(filename)

这里需要注意的是,如果想要训练某一类或某几类特定的目标类别,必须要同时修改以上两步中voc_annotation.py和train.py相应的位置,否则可能会报维数不符的错误。

修改完成后,开始训练:

python train.py

随着epoch迭代,会得到越来越小的loss,直到loss达到某一阈值自动停止,或者epoch达到上限也会停止。可以在train.py中的train函数中修改预设的epochs。

3、修改yolo.py,使用自己训练的模型预测图像:

#self.model_path = 'model_data/yolo.h5' self.model_path =

'model_data/my_yolo.h5' self.anchors_path = 'model_data/yolo_anchors.txt'

#self.classes_path = 'model_data/coco_classes.txt' self.classes_path =

'model_data/my_classes.txt'

因为只在2007VOC训练集上进行30次的迭代训练,所以得到的模型效果不算好,在VOC测试图像上的预测效果还可以,但不够精确。如果测试图像更大,差的预测结果就比较明显了,因此需要更多训练数据来训练自己的模型。

四、在VOC2007上评估MAP

1、具体过程参考:YOLO在VOC2007数据集计算mAP 备忘

2、输出文件格式要求:Pascal VOC 数据集介绍

五、其他:

1、如果想要使用自己的权重继续训练,在train.py中的create_model函数中修改weights_path。如果不想使用预训练的权重,设置传给create_model函数的参数load_pretrained=False。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值