![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
目标检测
文章平均质量分 94
学海一叶
机器学习、深度学习、GIS、遥感
展开
-
目标检测-Transformer-ViT和DETR
随着Transformer爆火以来,NLP领域迎来了大模型时代,成为AI目前最先进和火爆的领域,介于Transformer的先进性,基于Transformer架构的CV模型也开始涌现。本文介绍一下最先得到可靠应用的简单模型:ViT(Vision Transformer)、DETR(Detection Transformer)。在COCO数据集上的性能,DETR和一个训练好的Faster R-CNN baseline是差不多的,无论从内存、速度还是精度来说。原创 2024-02-23 17:52:03 · 2298 阅读 · 0 评论 -
目标检测-One Stage-YOLOv8
终于到了YOLO系列最新最火爆的网络–YOLOv8,前面YOLOv5中已经提到ultralytics团队集成了先进的YOLO系列目标检测最佳实践,YOLOv8则是他们的最新力作。YOLOv8本身的创新点不多,偏向工程实践。提示:以下是本篇文章正文内容,下面内容可供参考YOLOv8的出现进一步促进了实时目标检测的发展。原创 2024-01-15 09:13:22 · 1357 阅读 · 1 评论 -
目标检测-One Stage-YOLOv7
自YOLOv4之后,其作者提出一些新的trciks,YOLOv7诞生主要贡献分为以下3个方面设计了几种训练tricks(bag-of-freebies),使得实时目标检测可以在不增加推理成本的情况下大大提高检测精度针对目标检测领域现有的两个问题提出解决方案:一是模块重参化如何高效合并,二是动态标签分配策略如何处理好不同输出层的分配模型重参化就是在推理阶段将多个模块合并为一个计算模块,YOLOv6的RepVGG Style就是基于这种策略设计的。原创 2024-01-10 16:59:24 · 1300 阅读 · 1 评论 -
目标检测-One Stage-YOLOv6
YOLOv6 是美团视觉智能部研发的一款目标检测框架,致力于工业应用。论文题目是《YOLOv6: A Single-Stage Object Detection Framework for Industrial Applications》。和YOLOv4YOLOv5等不同的是,YOLOv6对网络结构的改动较大。除了模型的结构之外,YOLOv6的数据增强和YOLOv5的保持一致;而标签分配上则是和YOLOX一样,采用了SimOTA;并且引入了新的边框回归损失:SIOU。原创 2024-01-09 16:41:42 · 1002 阅读 · 0 评论 -
目标检测-One Stage-YOLOx
根据前文CenterNetYOLOv4等可以看出学界和工业界都在积极探索使用各种tricks(anchor-free、各种组件、数据增强技术等等)来改进One Stage网络的表现,2021年旷视科技结合先进的改进技巧,产出了多种改进模型,在多种情况下达到速度和精度的SOTA。值得一提的是,YOLOx使得YOLO系列回归到了anchor-free(YOLOv1是anchor-free的),后续YOLOv6、YOLOv7、YOLOv8均为anchor-free算法。原创 2024-01-09 15:01:34 · 1227 阅读 · 0 评论 -
目标检测-One Stage-CenterNet
前文提到的YOLOv3YOLOv4YOLOv5产生大量的预测框,计算量大正负样本不平衡问题:产生的预测框大部分是负样本对预定义anchor依赖:anchor-based方法的anchor box的尺度是一个超参数,不同的超参设置会影响模型性能因此出现了anchor-free这类不依赖于预定义锚框的算法,使得模型更灵活,并且在处理各种目标形状和大小时更具鲁棒性,在一些场景下取得了与传统锚框方法相媲美甚至更好的性能。原创 2024-01-08 17:44:33 · 1219 阅读 · 0 评论 -
目标检测-One Stage-YOLOv5
前文目标检测-One Stage-YOLOv4提到YOLOv4主要是基于技巧的集成,对于算法落地具有重大意义,YOLOv5则在工程应用方面更近一步,将算法深度集成,使得使用者不用再过多关注算法实现,且提供了多种预训练模型,到目前为止,由ultralytics团队开发的包,已经支持YOLOv3YOLOv5YOLOv6YOLOv8YOLO-NASRT-DETR等等,其中YOLOv5和当前YOLO家族最新的YOLOv8是由ultralytics团队研发的。提示:以下是本篇文章正文内容,下面内容可供参考。原创 2024-01-08 14:15:08 · 1287 阅读 · 0 评论 -
目标检测-One Stage-YOLOv4
自Yolov3结束,其作者不再在该系列进行研发,后续开启了工业界的狂潮,诸多公司开始研究目标检测算法的实时落地应用。YOLOv4可以说是目标检测各种小技巧(tricks)的大总结,将其推向了工业界。ps:YOLOv4算法是在原有YOLO目标检测架构的基础上,采用了近些年CNN领域中最优秀的优化策略,从数据处理、主干网络、网络训练、激活函数、损失函数等各个方面提出各种tricks总结,虽没有理论上的创新,但是将其应用推向高峰。文章如同目标检测的trick综述。原创 2024-01-07 19:22:11 · 1235 阅读 · 1 评论 -
目标检测-One Stage-EfficientDet
EfficientDet是google在2019年11月发表的一个目标检测算法系列,其提出的背景是:之前很多研究致力于开发更高效的目标检测架构,如one-stage、anchor-free或压缩现有模型,尽管这些方法往往能获得更好的效率,但它们通常会牺牲准确性。并且这些研究并未关注工业应用上的资源约束问题。EfficientDet精度与速度全面领先于YOLO V3, MaskRCNN, RentinaNet, NAS-FPN这些常见目标检测模型,其backbone基于EfficientNet。原创 2024-01-05 11:00:05 · 1197 阅读 · 0 评论 -
目标检测-One Stage-YOLO v3
根据前文目标检测-One Stage-YOLOv2可以看出YOLOv2的速度和精度都有相当程度的提升,但是精度仍较低,YOLO v3基于一些先进的结构和思想对YOLO v2做了一些改进。提示:以下是本篇文章正文内容,下面内容和可供参考YOLOv3-320(28.2mAP)与SSD321一样准确(28.0mAP[.5, .95]),但速度快三倍(61ms -> 22ms)原创 2024-01-04 09:58:06 · 1167 阅读 · 0 评论 -
目标检测-One Stage-RetinaNet
根据前文目标检测-One Stage-YOLOv2前景(positive)和背景(negatives)类别的不平衡ps:假设我们有一个医学图像分类任务,要识别是否患有一种罕见的疾病。在这个场景中,正类别是患有疾病的图像,负类别是健康的图像。由于罕见疾病的患者数量相对较少,数据集中正类别的样本数量远远少于负类别。这就是前景和背景的类别不平衡问题。RetinaNet 针对上述缺点做了改进提示:以下是本篇文章正文内容,下面内容可供参考。原创 2024-01-03 09:48:23 · 1034 阅读 · 0 评论 -
目标检测-One Stage-YOLOv2
根据前文目标检测-Two Stage-YOLOv1和Fast-CNN相比,速度快,但精度下降。(边框回归不加限制)YOLOv2提出了一些改进策略,如anchor-based等提示:以下是本篇文章正文内容,下面内容可供参考通过网络结构和改进和一些tricks,YOLOv2精度大大提升,同时通过多尺度训练,使得相同的YOLOv2模型可以在不同的大小下运行,从而轻松实现速度和精度之间的折衷。在67 FPS的速度下,YOLOv2在VOC 2007上达到76.8mAP。原创 2024-01-02 10:08:32 · 1086 阅读 · 1 评论 -
目标检测-One Stage-SSD
根据前文目标检测-Two Stage-YOLOv1每个格子针对目标框的回归是不加限制的,导致目标的定位并不是很精准和Faster RCNN等先进Two Stage算法相比,没有应用多尺度特征图的思想预训练时与实际训练时输入大小不一致,模型需要去适应这种分辨率的转换,会影响最终精度SSD(Single Shot MultiBox Detector)针对上述缺点做了改进提示:以下是本篇文章正文内容,下面内容可供参考。原创 2023-12-29 10:50:51 · 1070 阅读 · 0 评论 -
目标检测-One Stage-YOLOv1
前文目标检测-Two Stage-Mask RCNN速度上并不能满足实时的要求因此出现了新的One Stage算法簇,YOLOv1是目标检测中One Stage方法的开山之作,不同于Two Stage需要先通过RPN网络得到候选区域的方法,YOLOv1将检测建模为一个回归问题,直接在整张图的特征图(Feature Map)上进行目标的定位和分类,因此速度比当时正红的Fast R-CNN快很多。而且,也正是因为YOLOv1看的是全局的信息,把背景误判成目标的错误率比只看候选区的Fast R-CNN。原创 2023-12-28 15:52:48 · 1360 阅读 · 0 评论 -
目标检测-Two Stage-Mask RCNN
ROI Pooling有两次量化操作,会引入误差影响精度Mask RCNN针对这一缺点做了改进,此外Mask RCNN还添加了全卷积网络的分支,拓展了网络的应用范围,使其可用于多种视觉任务:包括目标分类、目标检测、语义分割、实例分割、人体姿态识别等提示:以下是本篇文章正文内容,下面内容可供参考整个Mask R-CNN算法非常的灵活,可以用来完成多种任务,包括目标分类、目标检测、语义分割、实例分割、人体姿态识别等多个任务。原创 2023-12-28 14:54:09 · 1339 阅读 · 0 评论 -
目标检测-Two Stage-Faster RCNN
前文提到了目标检测-Two Stage-Fast RCNN通过手工方法(Selective Search)寻找的候选框,非常耗时。Faster RCNN针对上述缺点做了改进提示:以下是本篇文章正文内容,下面内容可供参考相比于之前的算法,Faster RCNN由于其端到端的特性得到广泛应用,但是受Two Stage算法思想的影响,速度仍不够快,并且ROI Pooling有两次量化操作,会引入误差影响精度。原创 2023-12-27 17:30:46 · 1141 阅读 · 0 评论 -
目标检测-Two Stage-Fast RCNN
前文目标检测-Two Stage-SPP Net分开训练多个模型困难且复杂尽管比RCNN快10-100倍,但仍然很慢SPP Net无法更新空间金字塔池化层以下的权重,根本原因是,当每个训练样本来自不同影像时,通过SPP层的反向传播效率很低Fast RCNN针对上述缺点做了改进提示:以下是本篇文章正文内容,下面内容可供参考尽管相比于RCNN和SPP Net更快更简便,但Fast R-CNN仍是通过手工方法(Selective Search)寻找的候选框,非常耗时。原创 2023-12-26 17:37:29 · 933 阅读 · 0 评论 -
目标检测-Two Stage-SPP Net
SPP Net:Spatial Pyramid Pooling Net(空间金字塔池化网络)SPP-Net是出自何凯明教授于2015年发表在IEEE上的论文-《Spatial Pyramid Pooling in Deep ConvolutionalNetworks for Visual Recognition》前文目标检测-Two Stage-RCNN2000候选框都需要进行CNN提特征+SVM分类,计算量很大。原创 2023-12-26 16:04:22 · 1052 阅读 · 0 评论 -
目标检测-Two Stage-RCNN
目标检测之序章-类别、必读论文和算法对比(实时更新)图像预处理 => 寻找候选区 => 特征提取 => 分类器分类 => 后处理1)寻找候选区的方法缺陷:基于滑动窗口的区域选择策略没有针对性,时间复杂度高,窗口冗余,速度慢2)手工设计的特征对于多样性的变化没有很好的鲁棒性2012年,卷积神经网络(CNN)开始大放异彩,开启了基于深度学习算法图像分类的热潮。原创 2023-12-25 17:42:50 · 1079 阅读 · 0 评论 -
目标检测之序章-类别、必读论文和算法对比(实时更新)
目标检测是计算机视觉领域(CV)热门且较成熟的主流研究方向之一,其应用广泛(自动驾驶、安防监控、医学影像分析、零售业货品管理等等)且已经深入到我们生活的方方面面,现在从个人学习角度,开展目标检测系列文章,主要侧重为深度学习,希望起到抛砖引玉的效果,如果有误的地方敬请指正。PS:应该注意到,近些年来,CV模型有融合的趋势,原来的目标检测模型不再是单一任务,往往能同时处理多种任务:目标检测、语义分割、实例分割、姿态检测等。原创 2023-12-21 16:08:58 · 1269 阅读 · 0 评论