![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
转载系列
文章平均质量分 83
狼刀流
这个作者很懒,什么都没留下…
展开
-
转载系列:IOU Loss
原文链接:https://www.yuque.com/huoxiangshouxiangwanghuo/xg3nah/tyl1n2 IoU(Intersection over Union) 在目标检测任务中,IoU是一个非常重要的概念,它反映了prediction box和ground truth box的贴合程度。在用训练好的模型进行测试时,网络会预测出一系列的prediction box,这时候我们会用NMS来移除一些多余的候box,即移除一些IoU值大于某个阈值的box,然后在剩下的box中,分别转载 2021-07-30 17:29:20 · 312 阅读 · 0 评论 -
转载系列 |ICCV2019:ACNet:Strengthening the Kernel Skeletons for Powerful CNN via Asymmetric Convolution
论文:ACNet: Strengthening the Kernel Skeletons for Powerful CNN via Asymmetric Convolution Blocks 论文链接:https://arxiv.org/abs/1908.03930 代码链接:https://github.com/DingXiaoH/ACNetACNet,全称是Asymmetric Convolution Net,翻译过来就是非对称卷积网络。这篇论文也是从更好的特征表达角度切入实现效果提升,不过更重要的是转载 2021-05-18 16:31:13 · 349 阅读 · 0 评论 -
转载系列【检测】| CVPR2018:Single-Shot Refinement Neural Network for Object Detection
论文:Single-Shot Refinement Neural Network for Object Detection 论文链接:https://arxiv.org/abs/1711.06897 代码链接:https://github.com/sfzhang15/RefineDet RefineDet是CVPR2018的论文,个人觉得是一篇很不错的文章,大致上是SSD算法和RPN网络、FPN算法的结合,可以在保持SSD高效的前提下提高检测效果(实验效果提升挺明显)。第一眼看到这篇文章就让我想起了R转载 2021-05-18 14:30:06 · 119 阅读 · 0 评论 -
转载系列【检测】| CVPR2020:Bridging the Gap Between Anchor-based and Anchor-free Detection via Adaptive Trai
目标检测论文阅读:Bridging the Gap Between Anchor-based and Anchor-free Detection via Adaptive Training Sample Selection 论文链接:https://arxiv.org/abs/1912.02424 在https://www.zhih...转载 2021-05-18 11:16:25 · 177 阅读 · 0 评论 -
转载系列【检测】:2019 | Learning Spatial Fusion for Single-Shot Object Detection
本篇文章最大的创新点是提出了一种新的特征融合的方式ASFF,通过学习权重参数的方式将不同层的特征融合到一起,作者证明了这样的方法要优于通过concatenation或者element-wise的方式。 代码:https://github.com/ruinmessi/ASFF 一个更强的YOLOv3 baseline 其实整篇文章能取得如此优秀的效果并不仅仅在于加入了ASFF这种自适应特征融合方式,作者在Y...转载 2021-05-13 10:55:50 · 171 阅读 · 0 评论 -
转载系列【检测】:CVPR2020 | DR Loss: Improving Object Detection by Distributional Ranking
文章目录 简介0. Abstract1. Introduction2. Related Work3. DR Loss3.1 Ranking3.2 Distributional Ranking3.3 Recover Classification from Ranking 4.Experiments4.1 Parameters...转载 2021-05-13 09:44:24 · 230 阅读 · 0 评论 -
IoU loss 小总结
对于检测框B和groundtruth G,二者的IoU如下: 那么IoU Loss即为1-IoU。 显然IoU Loss具有非负性、尺度不变性、同一性、对称性、三角不等性等特点,所以可以用于bounding box的回归任务中。 但同时,IoU Loss也存在一个很致命的缺点: 当B与G的IoU为0时,Loss也为0,网络无法进行训练。因此IoU loss在回归任务中的表现并不好。 GIoU Loss 论文:https://arxiv.org/abs/1902.09630 GIoU转载 2021-05-04 15:01:19 · 2088 阅读 · 2 评论 -
各种激活函数
激活函数可以分为两大类 : 饱和激活函数: sigmoid、 tanh非饱和激活函数: ReLU 、Leaky Relu 、ELU【指数线性单元】、PReLU【参数化的ReLU 】、RReLU【随机ReLU】 相对于饱和激活函数,使用“非饱和激活函数”的优势在于两点: 1.首先,“非饱和激活函数”能解决深度神经网络【层数非常多!!】的“梯度消失”问题,浅层网络【三五层那种】才用sigmoid 作为激活函数。 ...转载 2021-05-03 00:48:01 · 17591 阅读 · 0 评论 -
转载系列【检测】:CVPR2016 | You Only Look Once: Unified, Real-Time Object Detection
参考: http://blog.csdn.net/u011534057/article/details/51244354 https://zhuanlan.zhihu.com/p/24916786 论文下载: http://arxiv.org/abs/1506.02640 darknet版的代码下载: https://github.com/pjreddie/darknet tensorflow版本的...转载 2021-04-23 00:36:30 · 260 阅读 · 0 评论 -
转载系列【分割】:ECCV2020 | SOLO: Segmenting Objects by Locations
文章目录 一、背景二、本文方法三、本文方法的具体做法3.1 问题定义3.1.1 Semantic category3.1.2 Instance Mask 3.2 Network Architecture3.3 SOLO learning3.3.1 Label Assignment3.3.2 Loss Function...转载 2021-04-22 16:39:33 · 292 阅读 · 0 评论 -
转载系列:注意力机制技术总结
前言: 注意力机制在视觉上是非常重要的部分,这方面的综述、总结有很多。为了本文总结的全面性,我基本都看了一遍。然而这些综述要么面面俱到,对所有内容都非常详细地阐述,包括一些非常不常用的,过时的论文或结构;要么没分清重点,有些内容跟论文有关,但跟注意力无关,这些文章也把这些内容总结到里面。 什么是注意力?就是只写有用的,只留下值得关注的部分。对于已经过时的结构或论文,不为了刻意做到“史上最全的....转载 2021-04-20 18:06:06 · 414 阅读 · 0 评论 -
转载系列:池化技术总结
导言: 池化是一个几乎所有做深度学习的人都了解的一个技术,大家对池化如何进行前向传播也都了解,池化的作用也了解一二。然而,池化如何回传梯度呢,池化回传梯度的原则是什么呢,最大池化与平均池化的区别是什么呢,什么时候选择最大池化、什么时候选择平均池化呢。 主要用的池化操作有平均池化、最大池化、全局平均池化,全局自适应池化。此外还有很多,如Ro...转载 2021-04-20 18:01:35 · 421 阅读 · 0 评论 -
转载:特征金字塔技术总结
前言: 特征金字塔是目前用于目标检测、语义分割、行为识别等方面比较重要的一个部分,对于提高模型性能具有非常好的表现。 不同大小的目标都经过了相同的降采样比例后会出现较大的语义代沟,最常见的表现就是小目标检测精度比较低。特征金字塔具有在不同尺度下有不同分辨率的特点,不同大小的目标都可以在相应的尺度下拥有合适的特征表示,通过融合多尺度信息,在不同尺度下对不同大小的目标进行预测,从而很好地提升了模型...转载 2021-04-20 17:58:04 · 625 阅读 · 0 评论 -
NMS小总结
文章目录前言一、标准 NMS二、Soft NMS三、DIoU NMS前言Non-Maximum Suppression(NMS)非极大值抑制,也有个别地方称之为非最大值抑制。个人认为前者更为贴切, 因为其具体实现原理是找到所有局部最大值, 并抑制非局部最大值,而不是找全局最大值。从字面意思理解,抑制那些非极大值的元素,保留极大值元素。其主要用于目标检测,目标跟踪,3D 重建,数据挖掘等。目前 NMS 常用的有标准 NMS, Soft NMS,DIOU_NMS 等。后续出现了新的 Softer NMS,原创 2021-04-20 16:15:49 · 412 阅读 · 0 评论 -
转载系列 | YOLOv4: Optimal Speed and Accuracy of Object Detection
文章目录前言总结前言一个不错的PPT链接: https://drive.google.com/file/d/1r8HBrczxM59WGtwrDCd97r2x622jlBxo/view.论文链接: https://arxiv.org/pdf/2004.10934.pdf.知乎链接1: https://zhuanlan.zhihu.com/p/136172670.知乎链接2: https://zhuanlan.zhihu.com/p/135980432.总结这篇论文有创新和改进都十分有限。然.原创 2021-03-30 15:49:22 · 120 阅读 · 0 评论 -
转载系列 | YoloV1-V3 学习小汇总
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录blog汇总blog汇总链接: https://www.cnblogs.com/makefile/p/YOLOv3.html.这篇文章整个串了一遍,写的不错可以当做复习看看。yolov1:核心应该就是它的loss,搞懂了它的loss基本论文懂了一大半。看起来复杂,其实就是对位置,类别,IOU这3个量的平方差。yolov2:在v1的基础上换了backbone,从VGG换成了darknet。引入了anchor机制(yolov原创 2021-03-25 18:11:17 · 99 阅读 · 0 评论