object detection
文章平均质量分 94
WYXHAHAHA123
这个作者很懒,什么都没留下…
展开
-
CS231N 关于物体检测部分
image classification任务中的网络模型设计:input image->stack of convolution-bn-relu-pooling->fully connected layers->output categories scores vector计算机视觉中的经典任务(typical task):image classification...原创 2019-03-13 16:47:42 · 215 阅读 · 0 评论 -
training fpnssd
以epoch为单位,计算整个epoch的loss函数和时间。batch size=32或者64,现在程序中设置的batch size=8,每进行一个step需要0.30s,如果训练数据集中包含9600张图片,batch size=32,一个epoch中包含300个step,1秒进行一次step,则300秒一个epoch,5min一个epoch,一小时12个epoch,一般训练过程会跑200-300...原创 2019-03-13 16:44:38 · 807 阅读 · 0 评论 -
SSD模型实现过程
1.调用self._get_anchor_wh()函数得到anchor_wh: (tensor) anchor wh, sized [#fm, #anchors_per_cell, 2].每个特征图上的9种不同anchor boxes的宽、高以下操作对于某个特定尺度的特征图:2.根据特征图尺寸和出入图像尺寸计算放大倍数grid_size3.在特征图的每个像素点上,以特征图像素数为单...原创 2019-03-13 16:42:18 · 1962 阅读 · 6 评论 -
物体检测初学者github代码
其实比较R-CNN、fast R-CNN、faster R-CNN、YOLO、SSD等模型的准确度,直接给出准确率的意义不大,因为这些网络的基网络可能不同,故在给出detector准确率的同时,最好也同时给出基网络的模型:如VGG、resnet。为什么region-based method的方法train from scratch会不收敛,而SSD的train from scratch mAP...原创 2019-03-13 16:41:50 · 989 阅读 · 0 评论 -
faster R-CNN模型实现过程
faster R-CNN=RPN+fast R-CNN①将fm送入RPN(region proposal network),RPN也是一个卷积神经网络,它对于input feature map的每个像素点,预测9个anchor boxes,anchor boxes的中心点坐标就是当前像素点映射到input image上的坐标点(注意从feature map pixel尺度上映射到input...原创 2019-03-13 16:40:19 · 2416 阅读 · 0 评论 -
CornerNet
https://zhuanlan.zhihu.com/p/41825737 这篇知乎讲的很好。cornerNet:ECCV 2018 oral论文链接:https://arxiv.org/abs/1808.01244代码链接:https://github.com/princeton-vl/CornerNet是基于pytorch写的代码,之前老板也提到过,现在很多开源的paper代码都...原创 2019-03-13 14:43:31 · 812 阅读 · 0 评论 -
learning region features for object detection
北大和MSRA合作的paper。 首先要明确的是,region feature这个概念指的是region proposal所对应的特征块,必须知道,只有two stage method中才有region proposal的概念(两个阶段的检测器输出的位置坐标是级联的预测形式,先对anchor微调得到region proposal,再对region proposal微调得到pre...原创 2019-03-11 20:51:01 · 668 阅读 · 0 评论 -
SPPnet中的SPP pooling为什么没有Fast R-CNN的ROI pooling效果好
spp不支持反向传播,spp那个时候,由于时代的局限性,没有backward,不能更新卷积层。是到了roipooling之后才做出backward的前面的CNN是Imagenet上面训练的,然后直接不动。...原创 2019-03-11 17:38:33 · 914 阅读 · 1 评论 -
R-FCN:
R-FCN是对于Faster RCNN模型的改进,也是two stage model。同样也包括RPN模块和Fast RCNN模块,R-FCN所作出的主要改进就是ROI Pooling的操作。R-FCN:object detection via region-based fully convolutional neural networksNIPS2016 inspired by an ...原创 2019-03-15 14:57:16 · 320 阅读 · 0 评论 -
YOLO V3 (一)
https://blog.paperspace.com/how-to-implement-a-yolo-object-detector-in-pytorch/首先明确,YOLO 是一个全卷积网络(fully convolutional neural network,FCN),其中的下采样操作并不使用pooling层,而是使用步长stride=2的卷积操作代替,以避免对于低阶高分辨率特征图的信息...原创 2019-02-20 12:35:29 · 974 阅读 · 0 评论 -
focal loss和OHEM(on-line hard example mining)如何应用到faster RCNN中
在物体检测问题中,主要分为两类检测器模型:one stage detector(SSD,YOLO系列,retinanet)和two stage detector(faster RCNN系列及其改进模型),然而无论是一个阶段的检测器还是两个阶段的检测器,都使用到了anchor机制,即在特征图上密集地画anchor boxes,根据先验知识设定的IOU阈值将这些anchor划分为正样本和负样本,再对于...原创 2019-02-25 17:47:27 · 5594 阅读 · 24 评论 -
bounding box regression in detection model
http://caffecn.cn/?/question/160https://blog.csdn.net/zijin0802034/article/details/77685438/转载 2019-02-18 21:14:26 · 143 阅读 · 0 评论 -
SSD与Faster RCNN中的RPN生成anchor的不同之处
SSD是在多个不同尺度/分辨率的特征图上生成anchor,故而在每一个尺度的特征图上生成anchor时,并没有引入multi-scale,而是给同一个尺度分辨率特征图上的每个像素点设定一个面积值,在该像素点上产生 len(aspect_ratios)个anchor boxes,即产生不同宽高比的anchor boxes,这些不同宽高比的anchor boxes在同一个分辨率的特征图上具有相同的面积...原创 2019-02-23 22:04:19 · 2116 阅读 · 0 评论 -
RCNN Fast RCNN到Faster RCNN
https://blog.csdn.net/u011974639/article/details/78053203这位大神的讲解非常细。然后发现CS231n 2016中lecture8就有对于从RCNN Fast RCNN到Faster RCNN的详细讲解。一、R-CNN下面给出训练R-CNN的过程。step1&step2:准备用于fine-tune CNN的regio...原创 2019-03-11 17:24:37 · 698 阅读 · 0 评论 -
on-line hard example mining in object detection
物体检测中的困难样本挖掘,之前有一个名词叫做hard negative mining困难负样本挖掘先讨论什么是on-line hard example mining(OHEM):例如一个背景,被很大概率预测为前景了,那么这个背景就是困难样本;对于一个前景(ground truth classes为foreground),网络模型预测它很大的概率值为背景,则这个前景也是困难样本,也就是说,在线困...原创 2019-01-27 23:00:34 · 297 阅读 · 0 评论 -
object detection中的mAP指标
https://medium.com/@jonathan_hui/map-mean-average-precision-for-object-detection-45c121a31173https://github.com/rafaelpadilla/Object-Detection-Metricshttps://papers.nips.cc/paper/5867-precision-re...原创 2019-04-01 16:46:11 · 907 阅读 · 0 评论