YOLOv3-darknet训练自己的数据

1.linux常用命令     常用的都有,点击查看

2.远程链接工具     mobaxterm下载     

连接服务器:点击左上角的Session新建一个会话,在会话对话框中点击SSH,即可连接服务器,其中remote host填写远端服务器的地址,Specify username填写用户名,port填写端口,点击OK跳出终端,输入密码即可连接到服务器。
传输文件:点击左侧工具栏中的Sftp即可显示服务器中的文件,与平时的SFTP文件功能一致。不过传统的SFTP看图时需要下载到本地,该软件由于自带X Server,双击图片不用下载即可直接弹出。如果想要下载,右键download即可。

3.下载darknet

从github下载darknet-master文件夹,或者Windows下下载https://github.com/pjreddie/darknet然后上传服务器。

$ git clone https://github.com/pjreddie/darknet
$ cd darknet
$ make

然后运行下面的语句,会生成预测图像。如果成功了,说明你的darknet编译成功。

$ ./darknet detect cfg/yolov3.cfg yolov3.weights ./data/dog.jpg

 

可以编译出c版本的darknet,如果需要编译GPU版本、打开cudnn(cuDNN只是NVIDIA深度神经网络软件开发包中的其中一种加速库)、opencv(跨平台计算机视觉库)、openmp(for语句并行处理),可用gedit打开makefile,打开相应的项(注:opencv、cudnn需要另行安装,GPU、cudnn需要NVIDIA显卡):

GPU=1
CUDNN=0
OPENCV=0
OPENMP=0
DEBUG=0

然后重新 make 编译一下。

用下面语句下载预训练模型。或者windows下在https://pjreddie.com/media/files/yolov3.weights网址直接下载,然后上传服务器。

wget https://pjreddie.com/media/files/yolov3.weights

你下载的模型应该在darknet根目录下。

然后运行下面的语句,会生成预测图像。如果成功了,说明你的darknet编译成功。

$ ./darknet detect cfg/yolov3.cfg yolov3.weights ./data/dog.jpg

4.在文件夹根目录新建myData文件夹,在myData文件夹下再新建四个文件夹,分别为annotations、ImageSets、JPEGImages,JSON。其中annotations文件下存放xml文件,ImageSets下新建main文件夹,JPEGImages下放要训练的图片。JSON文件夹放标注的json文件。

然后运行voc-label.py文件 

 

运行utils.py文件

 

Annotations下为VOC格式的xml标注

<annotation>
    <folder>JPEGImages</folder>
    <filename>0a0a0b1a-7c39d841.jpg</filename>
    <path>/home/dew/CV2018/yolo/darknet/scripts/VOCdevkit/VOC2007/JPEGImages/0a0a0b1a-7c39d841.jpg</path>
    <source>
        <database>Unknown</database>
    </source>
    <size>
        <width>1280</width>
        <height>720</height>
        <depth>3</depth>
    </size>
    <segmented>0</segmented>
    <object>
        <name>car</name>
        <pose>Unspecified</pose>
        <truncated>0</truncated>
        <difficult>0</difficult>
        <bndbox>
            <xmin>557</xmin>
            <ymin>275</ymin>
            <xmax>688</xmax>
            <ymax>398</ymax>
        </bndbox>
    </object>
    <object>
        <name>car</name>
        <pose>Unspecified</pose>
        <truncated>0</truncated>
        <difficult>0</difficult>
        <bndbox>
            <xmin>160</xmin>
            <ymin>297</ymin>
            <xmax>252</xmax>
            <ymax>373</ymax>
        </bndbox>
    </object>
    <object>
        <name>car</name>
        <pose>Unspecified</pose>
        <truncated>0</truncated>
        <difficult>0</difficult>
        <bndbox>
            <xmin>392</xmin>
            <ymin>298</ymin>
            <xmax>459</xmax>
            <ymax>353</ymax>
        </bndbox>
    </object>
    <object>
        <name>car</name>
        <pose>Unspecified</pose>
        <truncated>0</truncated>
        <difficult>0</difficult>
        <bndbox>
            <xmin>492</xmin>
            <ymin>304</ymin>
            <xmax>523</xmax>
            <ymax>345</ymax>
        </bndbox>
    </object>
</annotation>

Main下txt文件为对应的测试、训练文件名称(不含后缀)
如:

0a0a0b1a-7c39d841

 

修改cfg/voc.data

 

classes= 1               #自己分类类别数
train  = /home/dew/Desktop/CV2018/yolo/darknet/scripts/2007_train.txt  #自己txt的路径
valid  = /home/dew/Desktop/CV2018/yolo/darknet/scripts/2007_val.txt    #自己txt的路径
names = data/voc.names      #分类名称
backup = backup             #生成的权重文件路径

修改cfg/yolov3-voc.cfg

查找带有[convolutional]以及[yolo]标签处(共3处)
修改

classes  = 标注种类数        //需要修改
filters=3*(classes+1+4)     //需要修改
ramdom=0  //显存足够1,不足够0

修改data/voc.names

备份后将内容修改为训练集classes名

下载预训练权重文件(只包含卷积层)或者windows下载https://pjreddie.com/media/files/darknet53.conv.74,然后上传服务器

wget https://pjreddie.com/media/files/darknet53.conv.74

并训练

./darknet detector train cfg/voc.data cfg/yolov3-voc.cfg darknet53.conv.74

log说明

 

Region xx: cfg文件中yolo-layer的索引;

Avg IOU:当前迭代中,预测的box与标注的box的平均交并比,越大越好,期望数值为1;

Class: 标注物体的分类准确率,越大越好,期望数值为1;

obj: 越大越好,期望数值为1;

No obj: 越小越好;

.5R: 以IOU=0.5为阈值时候的recall; recall = 检出的正样本/实际的正样本

0.75R: 以IOU=0.75为阈值时候的recall;

count:正样本数目。

log_output

9798是迭代次数,0.370096是loss   0.451929是平均loss,0.001是学习率 3.3s是当前批次花费的总时间,627072images是截止到当前,训练图片数。

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值