YoloV3详解

paper

https://arxiv.org/pdf/1804.02767v1.pdf

网络结构图

在这里插入图片描述
性能上远超Darknet-19,但在效率上同样优于ResNet-101和ResNet-152。下表是在ImageNet上的实验结果:
在这里插入图片描述

在这里插入图片描述在这里插入图片描述

数据处理

train_pipeline = [
    dict(type='LoadImageFromFile', to_float32=True),
    dict(type='LoadAnnotations', with_bbox=True),
    dict(type='ZeroOneNormalize'),
    dict(type='RandomJitter', jitter=(0.3, 0.3), img_scale=(1440, 864)),
    dict(type='RandomDistort', hue=0.1, saturation=1.5, exposure=1.5),
    dict(type='RandomTransform', img_scale=(1440, 864)),
    dict(type='RandomFlipCv2', flip_code=[1]),
    dict(type='NormalizeCoord', cxcywh=True),
    dict(type='DefaultFormatBundle'),
    dict(type='ParametersSetting', tensor=True),
    dict(type='Collect', keys=['img', 'gt_bboxes', 'gt_labels'])
]

Default anchors

通过IOU与Kmean计算训练样本中9个anchors, anchors_generate.py

Loss

Function Loss

  • total loss:
    在这里插入图片描述
  • build target
    • 计算当前层的每个anchor 与 target 之间的IOU,并取得最大的IOU对应的anchors的index
    • 过滤因为数据增强带来的bbox的越界, 找到best_index
    • 计算object weight scale. (sc = 2 - gw * gh)
    • 由best_index计算最佳的anchor对应的target, (obj_mask, noobj_mask, tx, ty, tw, th, tconf, tcls, scale)
  • 正负样本选择:
    • 用预测出来的predict box(pb)target box(tb)做一个IOU匹配,
    • 找到pb对应tb的最大iou, 如果这个iou小于ignore_thresh就被当做负样本
  • Loss计算
    location: 使用mse loss, 乘上一个object weight scale(sc)
    conf_obj and conf_noobj 使用 mse loss(均方差)
    classify loss 使用ce loss(交叉熵)
  1. Location Loss
    在这里插入图片描述

Reference

https://www.cnblogs.com/pprp/p/12590801.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值