目标检测
文章平均质量分 86
zzl_1998
XMU
展开
-
YOLOv3: An Incremental Improvement
code:https://pjreddie.com/yolo/Backbone: DarkNet-53,输出三种不同尺度的预测结果,每个网格对应3个先验框。N X N X [3 * (4 + 1 + 80)]对应4个bounding box offsets,1个objectness prediction和80个类别预测。具体来说,在79层得到32倍下采样的结果(13 * 13);之后通过上采样,并与61层特征进行concat,再经过一定卷积操作后得到16倍下采样结果(26 * 26)...原创 2021-08-17 21:07:12 · 226 阅读 · 0 评论 -
[CVPR-21] Robust and Accurate Object Detection via Adversarial Learning
代码:https://github.com/google/automl/tree/master/efficientdet/Det-AdvProp.md目录摘要引言方法AdvPropDet-AdvProp实验质量实验消融实验摘要目标检测的数据增强还未被充分探索; 目标检测模型通常基于fine-tuning pre-trained classifier,本文首先探索了数据增强对分类器的改善能否传递给检测模型,结果是不行; 本文进一步探索了对object...原创 2021-08-16 17:53:23 · 1228 阅读 · 1 评论 -
[CVPR-21] Scale-aware Automatic Augmentation for Object Detection
Scale-aware Automatic Augmentation for Object Detectioncode:GitHub - dvlab-research/SA-AutoAug: Scale-aware Automatic Augmentation for Object Detection (CVPR 2021)paper:https://arxiv.org/pdf/2103.17220.pdf目录1 Motivation2 Methods2.1 搜索空间2...原创 2021-07-21 18:08:30 · 1792 阅读 · 0 评论 -
【目标检测】OneNet: Towards End-to-End One-Stage Object Detection
label assignment是指,在训练过程中如何将某个prediction指定给某个GT,用于计算损失,训练网络。对于上一篇文章,他们首先用one-to-one label assignment替换了one-to-many label assignment,并且不用hand-craft label assignment,而是提出综合考虑位置、类别置信度和IoU三个指标计算得分,取得分最高的POTO。在这基础上,提出3DMF,提高局部卷积的差异,再进一步提高anchor之间的差异。最后,添加一个..原创 2020-12-17 17:33:22 · 789 阅读 · 2 评论 -
【目标检测】End-to-End Object Detection with Fully Convolutional Network
AbstractNMS妨碍了端到端训练。本文发现,如果想去除NMS,一个合适的label assignment对模型十分重要。 对于fully convolutional detectors,本文提出Prediction-aware One-To-One (POTO) label assignment,用于分类,以此实现端到端检测,取得了和NMS相近的表现。 并且,提出3D Max Filtering(3DMF),使用多尺度特征,提高局部区域卷积的可分辨性。 再COCO和CrowdHuma...原创 2020-12-16 23:20:46 · 2917 阅读 · 1 评论 -
【目标检测】Adaptive Training Sample Selection (ATSS)
Bridging the Gap Between Anchor-based and Anchor-free Detection via Adaptive Training Sample Selection原创 2020-12-14 13:22:27 · 419 阅读 · 1 评论 -
【目标检测】FCOS: Fully Convolutional One-Stage Object Detection
Abstract & Introduction受语义分割模型Fully Convolutional Network启发,提出一种per-pixel prediciton方式的目标检测。anchor-based方法,存在下列问题:(1)训练过程中,需要计算每个anchor和GT的IoU,非常浪费计算资源(2)需要面向任务设计anchor,anchor的sizes,aspect ratios和numbers会极大影响最后的检测结果[15,24]。对于RetinaNet,作者在调整an..原创 2020-12-13 22:07:24 · 968 阅读 · 0 评论 -
【Augmentation Zoo】RetinaNet + VOC + KITTI的数据预处理-pytorch版
整合前段时间看的数据增强方法,并测试其在VOC和KITTI数据上的效果。这个项目的github仓库在:https://github.com/zzl-pointcloud/MyRetinaNet0722。RetinaNet的模型代码来自pytorch-retinanet。整个代码的处理逻辑是:1. 继承torch.Dataset类定义新的数据集类,如VocDatasets类,KittiDatasets类,重写__getitem__(image_index)函数,其功能是,输入图片序号,返回一个sa原创 2020-07-23 23:29:59 · 668 阅读 · 0 评论 -
【目标检测】Fast R-CNN(2015)
两个挑战:(1)proposal多;(2)定位粗糙。提出一个single-stage训练方法,同时学习分类和refine位置。R-CNN有三个问题多步骤训练:(1)基于ConvNet的fine-tuning训练(2)代替softmax作为分类器的SVM(3)bounding-box回归 耗费大量空间时间:bounding-box的回归的SVM需要用到从proposal中提取出来的特征,这些特征会占用大量的内存空间 目标检测很慢。R-CNNmAP高 可以更新所有层 训练是singl.原创 2020-07-08 11:20:38 · 132 阅读 · 0 评论 -
[CVPR-17] Focal Loss for Dense Object Detection
目录摘要IntroductionFocal LossFocal Loss DefinitionRetinaNet推理摘要在训练密集detectors时,前景-背景极度不平衡是one-stage方法accuracy低的主要原因。我们提出修改标准cross entropy loss,降低分类良好的example的权重。Focal Loss专注于在稀疏的hard examples上训练,阻止大量简单的negative examples对训练的影响。使用Focal Loss训练时,R原创 2020-07-09 16:30:20 · 401 阅读 · 0 评论 -
【目标检测】YOLO v1(CVPR 2016)
YOLO由24层ConvNet和2层FCs组成。其核心思想是将图片均匀划分为多个grid cell,每个grid cell产生两个bbox和grid cell中如果存在对象,对象是各类的概率,每个bbox由5个参数组成,xywh和confidence,confidence是bbox中存在对象的概率,将两概率相乘即可表示grid cell存在某类对象的概率。YOLO的损失函数是全文重点。通过损失函数,使得模型更关注包含对象的bbox。但也因为网络本身的设置,使得YOLO无法对多个相邻小物体进行识别,并原创 2020-07-08 20:33:04 · 692 阅读 · 0 评论 -
【目标检测】Faster-RCNN(NIPS 2015)
目录IntruductionRegion Proposal NetworksTranslation-Invariant AnchorsRegion Proposal的loss function1. Positive / negative excample规则2. loss functionIntruduction目前目标检测的主要问题是:寻找Region proposal耗费了大量时间。Region Proposal Network (RPN)与目标检测网络共享en...原创 2020-07-08 15:51:04 · 246 阅读 · 0 评论 -
【目标检测】R-CNN(2014)
参考:https://blog.csdn.net/briblue/article/details/82012575R-CNN,Fast R-CNN,Faster R-CNN中的开篇之作。two-stage,第一步是选出候选区域,第二步是从候选区域中选出目标并分类。bottom-up region proposal:通过Selective Search选出的多层次候选区域。1. 对于每张图片,使用选择性搜索(Selective Search)选出候选区域。输入一张图片...原创 2020-07-07 13:57:55 · 182 阅读 · 0 评论 -
【目标检测】RetinaNet基于VOC的训练与测试-tf版
RetinaNet用的是这个代码:https://github.com/fizyr/keras-retinanet下载VOC比较慢,用的是上一篇文章中提到的镜像网站。配置环境比较简单:pip install numpypip install .python setup.py build_ext --inplace训练的时候报了“TypeError: type object got multiple values for keyword argument 'training'”检查后发现是k原创 2020-07-06 19:21:10 · 1029 阅读 · 1 评论 -
【目标检测】数据增强
一、目标检测目标检测大概分为anchor-based和anchor-free两类方法。其中anchor-based包括已经成熟应用的SSD和Yolo各系列,以及RetinaNet(效果较好,训练时间相对较长)。anchor-free的方法则包括CenterNet和FCOS。两类方法主要从Anchor、Loss和正负样本来区分。二、数据集VOC包括20种类型,训练数据大概15k,测试训练大概4.99k。COCO包括80种类型三、数据增强[1] Kisantal M , Wo..原创 2020-07-06 14:20:25 · 567 阅读 · 0 评论