![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
目标检测
文章平均质量分 91
汐梦聆海
過去を捨てなくては 未来の場所がない
展开
-
论文阅读《Swin Transformer: Hierarchical Vision Transformer using Shifted Windows》
论文链接:https://arxiv.org/abs/2103.14030代码地址: https://github.com/microsoft/Swin-Transformer开源15天,star超3k的作品。作者提出了一个基于transformer的backbone,可用于多种视觉任务。和以往ViT,DETR等结构不同的是,Swin Transformer通过shifted windows操作,实现了CNN里面的hierarchical的结构。这类hierarchical的结构更适用于不同的scale原创 2021-04-29 20:21:17 · 5441 阅读 · 1 评论 -
「损失函数loss」检测分割跟踪常见的Loss合集
Cross Entropy Loss交叉熵损失函数是分类中非常经典的一种loss,其计算公式如下:LCE=−ylog(y′)−(1−y)log(1−y′)L_{CE}=-y log(y')-(1-y)log(1-y')LCE=−ylog(y′)−(1−y)log(1−y′)其中y表示某个类别上的GT(值为0或1),y‘表示经过神经网络预测得到的对应类别的置信度(因为做过softmax处理,所以值在(0,1)之间)。当y=0时,上式中只有第二项,此时y‘越接近于0,则loss越小;当y=1时,上式只有原创 2021-04-11 17:10:38 · 3591 阅读 · 1 评论 -
基于Transformer的目标检测DETR
论文链接:https://www.ecva.net/papers/eccv_2020/papers_ECCV/papers/123460205.pdfTransformer之前在NLP领域大放异彩,但是在CV界平平无奇。自从ECCV20这篇基于transformer的目标检测模型DETR发表以后,transformer在CV中应用的探索越来越广泛,今天先粗浅的解读一下这篇论文,剩下的慢慢学习。在目标检测领域,Faster RCNN无疑是最经典的模型之一。但他需要很多anchor,proposal,以及非原创 2021-03-17 15:25:58 · 5064 阅读 · 2 评论 -
论文笔记——FCOS:Fully Convolutional One-Stage Object Detection
论文题目:Fully Convolutional One-Stage Object Detection论文链接:https://openaccess.thecvf.com/content_ICCV_2019/papers/Tian_FCOS_Fully_Convolutional_One-Stage_Object_Detection_ICCV_2019_paper.pdf最近看了两篇anchor-free的detection论文,分别是CenterNet和这篇FCOS,其共性都是使得网络免去了对anch原创 2020-08-08 23:41:59 · 709 阅读 · 0 评论 -
论文笔记——CenterNet:Objects as Points
论文名称:Objects as Points论文地址:https://arxiv.org/pdf/1904.07850.pdf早些时候的目标检测大多是基于anchor的,像Faster RCNN,Yolov2(v3),SSD等等。这些算法(1)都是在feature map上去撒满成百上千的anchor,虽然accuracy和recall不错,但计算开销会比较大;(2)需要进行NMS后处理,这一过程是不可导的,因此会给端到端训练带来困难。基于以上两个弊端,作者提出了一种基于Heatmap的anchor-原创 2020-08-08 14:19:31 · 823 阅读 · 1 评论 -
Yolov3的损失函数分析
Yolov3的网络架构在网上资源很多,但是关于loss的计算方法,网上的资源相对零散,并且原文作者并没有给出明确的计算公式。因此,本文的目的是梳理一下yolov3损失函数的计算流程。Yolov3网络结构Yolov3采用了Darknet53的backbone(采用了Resnet的残差结构),其输出为3张不同尺度的特征图(采用了SSD的思想)。特征图越小,每个grid cell对应的感受野越大,对应大目标的检测。拿上图中右下角(255∗13∗13)(255*13*13)(255∗13∗13)的特征图为例原创 2020-07-12 19:17:09 · 7169 阅读 · 2 评论 -
YOLO论文精简提炼笔记
人类在观察一张图像时,对于图像中的物体通常可以秒辨认并定位,完全不用太多的思考。因此目标检测的要求不仅要准,而且要快。而在YOLO出现之前,RCNN系列是目标检测中最精准的算法,虽然faster rcnn比最初始的RCNN快了很多,但其速度也只有7fps。究其原因是RCNN系列将 Proposal 的选取和选定 Proposal 后的分类和回归分作两个stage,就算用 RPN 网络取代 sele...原创 2020-05-04 00:48:22 · 766 阅读 · 0 评论 -
目标检测SSD算法训练过程通俗详解
参考论文: http://static.googleusercontent.com/media/research.google.com/zh-CN//pubs/archive/44872.pdf参考代码: https://github.com/amdegroot/ssd.pytorchSSD作为one-stage的目标检测算法,与Faster-RCNN这类的two-stage算法相比,可以在一...原创 2020-04-28 01:56:38 · 4065 阅读 · 3 评论 -
目标检测之IoU
IoU(交并比)是目标检测中一个常用的概念,通常用来衡量候选框(candidate)与真实标记框(ground truth)之间的交叠程度。定义两个集合A和B,两者的IoU为两者的交与两者的并的比值,即:IoU=A∩BA∪BIoU=\frac{A \cap B}{A \cup B}IoU=A∪BA∩B。例如图中有两个有重叠部分的矩形:一个是蓝色矩形A,另一个是绿色矩形B,交叠部分用橙色表示...原创 2020-02-08 22:26:50 · 1090 阅读 · 0 评论 -
SSD-pytorch训练及检测遇到的问题
pip install visdom -i http://pypi.douban.com/simple/ --trusted-host pypi.douban.comCUDA torch.loadIndexError: The shape of the mask [32, 8732] at index 0does not match the shape of the indexed tenso...原创 2020-02-09 13:28:25 · 2498 阅读 · 12 评论