![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
目标检测
qq_652530495
这个作者很懒,什么都没留下…
展开
-
MAP评价指标
mean average precisionmAP)只是把每个类别的AP都算了一遍,再取平均值因此,AP是针对单个类别的,mAP是针对所有类别的。先通过图片直观看AP计算过程,绿色为gt,红色为预测框,数字为类别,score为置信度。mAP是分类别计算的,所以先拿出所有1类别的pre的label,然后计算iou iou结果shape为[3,1],把iou小于阈值的去掉,假设下...原创 2018-12-05 13:48:41 · 14554 阅读 · 6 评论 -
softnms过程 代码
nms为直接将iou>阈值的框全部移除,而softnms 对iou>阈值的框 降低它的权重,遍历完所有预测框之后,再通过一个阈值选择留下还是移除这个框。import numpy as npimport cv2def py_cpu_softnms(dets, sc, Nt=0.3, sigma=0.5, thresh=0.001, method=2): """ ...原创 2019-03-27 17:38:07 · 1939 阅读 · 3 评论 -
nms
python 实现nms用keep来保存留下的索引,按score进行排序,依次计算当前box和余下box iou,留下iou小于阈值的,遍历到没有框了为止import numpy as npimport cv2def nms(scores, bboxes, thresh): order= np.argsort(scores)[::-1] keep = [] ...原创 2019-03-27 16:05:02 · 188 阅读 · 0 评论 -
focal loss
retinanet loss 不同于普通的多分类交叉熵损失,它的分类模型之后接的是sigmoid激活函数class ClassificationModel(nn.Module): def __init__(self, num_features_in, num_anchors=9, num_classes=80, prior=0.01, feature_size=256): ...原创 2019-03-20 11:48:43 · 712 阅读 · 2 评论 -
faster-rcnn anchor生成
def generate_anchor_base(base_size=16, ratios=[0.5, 1, 2], anchor_scales=[8, 16, 32]): py = base_size / 2. px = base_size / 2. anchor_base = np.zeros((len(ratios...原创 2019-03-15 15:40:31 · 1606 阅读 · 0 评论 -
FPN 特征金字塔网络
如图 直接上代码 def _upsample_add(self, x, y): _,_,H,W = y.size() # 使用 双线性插值bilinear对x进行上采样,之后与y逐元素相加 return F.upsample(x, size=(H,W), mode='bilinear') + y def forward...原创 2019-02-19 11:17:44 · 595 阅读 · 0 评论 -
感受野计算
个人理解:感受野就是每层featuremap 中 1个值计算与原图像 几个值相关原图像就是1, 第一层用 3*3卷积层计算,每个点用到了原图像3个值,第二层 用到第一层3个,反应到原图像就是5个, 直接看一维(行或列)就可以。这里可以想象一下如果第一层(第一次卷积,不算原图像)stride=2的话,对于当前层的感受野是没有影响的,但是会影响到下一层的感受野,下面是具体的计算...原创 2018-12-21 11:12:37 · 320 阅读 · 3 评论 -
iou计算
1 两个box之间计算iou比较简单def iou(box1, box2): xi1 = max(box1[0], box2[0]) yi1 = max(box1[1], box2[1]) xi2 = min(box1[2], box2[2]) yi2 = min(box1[3], box2[3]) inter_area = (yi2-yi1) *...原创 2018-12-14 16:17:44 · 2309 阅读 · 2 评论 -
fasterrcnn 总结
一篇非常好的英文博客http://www.telesens.co/2018/03/11/object-detection-and-classification-using-r-cnns/自己画的图原创 2018-12-14 11:19:51 · 705 阅读 · 0 评论 -
retinanet
图片说明 fpn拿的是 restnet的哪几层, conv1、conv2_x不要,conv3_x,con4_x,conv5_x拿来做FPN后面出来的结果直接接分类和回归,结合anchor ,focal loss就OK了原创 2019-03-28 09:08:24 · 324 阅读 · 0 评论