自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(12)
  • 收藏
  • 关注

原创 目标检测: 一文读懂 YOLOX

论文:YOLOX: Exceeding YOLO Series in 2021论文链接:https://arxiv.org/pdf/2107.08430.pdf代码链接:https://github.com/Megvii-BaseDetection/YOLOX.文章目录1 为什么提出YOLOX2 YOLOX 网络架构3 YOLOX 实施细节3.1 backbone3.2 neck3.3 Head3.3.1 Decoupled Head3.3.2 Anchor-free3.4 如何计算Loss3.5 如

2022-04-10 21:37:13 26741 10

原创 目标检测: 一文读懂 OTA 标签分配

论文:OTA: Optimal Transport Assignment for Object Detection论文链接:https://arxiv.org/abs/2103.14259代码链接:https://github.com/Megvii-BaseDetection/OTA文章目录1 什么是标签分配?2 为什么提出OTA?3 OTA方法3.1 OTA 思路3.2 Optimal Transport3.3 OT for Label Assignment4 OTA实施细节5 OTA效果性能

2022-04-10 11:26:03 13323 7

原创 工具篇: Markdown Typora 最全数学符号汇总

本文汇总了Markdown中常用数学符号, 来自于 LATEX Mathematical Symbols ,欢迎收藏随时备用。文章目录1 Greek and Hebrew letters2 LATEX math constructs3 Delimiters4 Variable-sized symbols5 Standard Function Names6 Binary Operation/Relation Symbols7 Arrow symbols8 Miscellaneous symbols9 Ma

2022-04-09 13:54:04 2132

原创 目标检测:一文读懂 TTFNet (CVPR2020)

论文:Training-Time-Friendly Network for Real-Time Object Detection论文链接:https://arxiv.org/pdf/1909.00700.pdf代码链接: https://github.com/ZJULearning/ttfnet1 为什么提出 TTFNet?本文旨在提高模型训练收敛速度,在CenterNet基础上做了进一步改进。提高模型训练速度有2种潜在方式:(1) 增大学习率;(2) 减少使用数据增强,如果直接使用这两个方法一般

2022-04-06 22:05:49 2592

原创 CVPR 2022: 图像分割论文大盘点

图像分割——CVPR 2022 论文大盘点1 前言本文盘点了CVPR 2022 目前为止的2D图像分割相关论文,包含语义分割和实例分割,总计22篇论文,值得学习。2.1 语义分割2.1.1 强监督ReSTR: Convolution-free Referring Image Segmentation Using Transformers论文:https://arxiv.org/pdf/2203.16768.pdf代码:暂无Bending Reality: Distortion-aware

2022-04-05 14:57:57 30155 8

原创 目标检测: 一文读懂 FCOS (CVPR 2019)

论文:FCOS: Fully Convolutional One-Stage Object Detection代码:https://github.com/tianzhi0549/FCOS1 前言现在主流的目标检测网络如 RetinaNet, SSD, YOLOv3 和 Faster R-CNN 都是基于anchor-based,存在如下缺点:(1) 检测性能对 anchor boxes的数量和宽高比(aspect ratio)敏感;(2) 由于anchor boxes 的宽高比是固定的,难以处理尺

2022-04-04 19:40:42 10138 1

原创 目标检测: 一文读懂 CenterNet (CVPR 2019)

论文:Objects as Points代码:https://github.com/xingyizhou/CenterNet1 前言CenterNe提出了一个更加简单高效的anchor-free目标检测框架,首先根据关键点估计来找出物体中心点,随后进一步预测出物体其他属性,如尺寸、3D位置、方位、姿态等。在COCO数据集上实现了速度和精度的平衡,性能如下:28.1% AP (142 FPS)、37.4% AP (52 FPS) 和 45.1% AP(1.4 FPS)。 图1 CenterNet 可视

2022-04-03 19:28:40 8033

原创 实例分割: 一文读懂 E2EC (CVPR 2022)

论文:E2EC:An End-to-End Contour-based Method for High-Quality High-Speed Instance Segmentation代码: https://github.com/zhang-tao-whu/e2ec1 前言1.1 实例分割技术路线实例分割方法可分为two stage方法和one stage方法:(1) two stage:先生成bboxes,再进行实例分割,代表模型有:Mask R-CNN、PANet,优点:精度高;缺点:速度慢,

2022-04-02 15:01:06 7970 1

原创 语义分割: 一文读懂 OCRNet

前言hrnet_ocr 是 Semantic Segmentation on Cityscapes test 中目前排名第一的语义分割模型,其将高分辨网络hrnet 和 OCR方法相结合,本文主要介绍OCR方法。OCR提出背景:使用一般性的ASPP方法如图(a),其中红点是关注的点,蓝点和黄点是采样出来的周围点,若将其作为红点的上下文,背景和物体没有区分开来,这样的上下文信息对红点像素分类帮助有限。为改善此情况,提出OCR方法如图(b),其可让上下文信息关注在物体上,从而为红点提供更有用的信息。 图

2022-04-01 01:30:33 9242 1

原创 目标检测: 一文读懂 YOLOV5 Loss 正样本采样

前言YoloV5中loss由正样本和负样本两部分loss组成,负样本对应着图像的背景,如果负样本远多于正样本,则负样本会淹没正样本的损失,从而降低网络收敛的效率与检测精度。这就是目标检测中常见的正负样本不均衡问题,解决方案之一是增加正样本数。Yolo anchor_based 系列使用的loss公式如下:公式中:SSS: S×SS×SS×S 个网格;BBB:每个网格产生 BBB 个候选框anchor box;1i,jobj1_{i,j}^{obj}1i,jobj​: 如果在 i,ji,ji,j

2022-03-29 14:44:08 9762 9

原创 目标检测: 一文读懂 Mosaic 数据增强

前言在Yolo-V4、Yolo-V5中,都有一个很重要的技巧,就是Mosaic数据增强,这种数据增强方式简单来说就是把4张图片,通过随机缩放、随机裁减、随机排布的方式进行拼接。Mosaic有如下优点:(1)丰富数据集:随机使用4张图片,随机缩放,再随机分布进行拼接,大大丰富了检测数据集,特别是随机缩放增加了很多小目标,让网络的鲁棒性更好;(2)减少GPU显存:直接计算4张图片的数据,使得Mini-batch大小并不需要很大就可以达到比较好的效果。 图1 mosaic 效果 mosaic p

2022-03-28 21:17:22 27461 11

原创 目标检测: Camvid 语义标签转化为bbox标签

Camvid 语义标签转化为目标检测bbox标签

2022-03-28 12:47:39 951

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除