pytorch
文章平均质量分 84
小小小绿叶
这个作者很懒,什么都没留下…
展开
-
目标检测label assignment:A Dual Weighting Label Assignment Scheme
在目标检测中,为了与NMS兼容,一个好的检测器应该能够预测具有较高分类得分和精确位置的box。然而,如果所有的训练样本都被同等处理,两个头部之间就会出现错位:类别得分最高的位置通常不是回归对象边界的最佳位置。这种失调会降低检测器的性能,特别是在高IoU指标下。soft label assignment是通过加权损失以软标签的方式处理训练样本,试图增强cls和reg头之间的一致性。原创 2023-04-03 14:33:54 · 605 阅读 · 1 评论 -
一文看懂YOLO v8
2023年,YOLO系列已经迭代到v8,v8与v5均出自U神,为了方便理解,我们将通过与v5对比来讲解v8。想了解v5的可以参考文章。原创 2023-01-30 20:56:00 · 17011 阅读 · 7 评论 -
mmpose关键点(一):评价指标(PCK,OKS,mAP)
由于,近期项目需要引入关键点做一些方向逻辑的判断,在此记录一些实验与经典论文方法。首先,我们先了解一下关键点估计的评价指标。原创 2022-08-10 09:23:23 · 6516 阅读 · 5 评论 -
yolov5模型压缩之模型剪枝
稀疏剪枝原创 2022-07-16 15:08:07 · 12464 阅读 · 27 评论 -
mmcls多标签分类实战(三):多标签分类指标
前面两篇分别介绍了制作多标签数据,resnet多标签分类。接下来,我将介绍多标签分类的指标并分享一些关于多标签分类的细节,即如何操作可以提点。在此之前,想提一下损失函数cross_entropy与binary_cross_entropy的区别交叉熵的数学公式如上所示,P表示target,Q表示prediction,H就是交叉熵损失。在pytorch中可以调用 F.cross_entropy(input, target)来实现交叉熵损失的计算。其实分解一下就是下面的公式,先把prediction按照最后的原创 2022-06-25 15:57:01 · 3157 阅读 · 1 评论 -
mmcls多标签分类实战(一):制作多标签数据
Multi-Label:多标签分类指当图片或者文本存在多个属性时,多标签分类能够对一张图片中的多个属性进行分类识别。下面将用mmclassification框架完成一次多标签分类实战。Multi-class与Multi-label的区别首先,我们需要构建数据集,需要注意的是,多标签分类的数据集与多分类数据不同。Multi-class的label中只存在一个‘1’,而Multi-label中对应多个属性,label可以有多个‘1’。Multi-class构建数据集比较简单,只需要将不同类别的图片归纳到不同文原创 2022-06-16 15:04:21 · 4616 阅读 · 3 评论 -
pytorch 去除state_dict()中的某些层
在finetun时,我们经常需要对pretrain model进行裁剪,到底如何做呢,下面直接上代码import torchfrom collections import OrderedDictimport osimport torch.nn as nndef copyStateDict(state_dict): if list(state_dict.keys())[0].startswith('module'): start_idx = 1 else:原创 2020-11-25 11:27:01 · 2952 阅读 · 1 评论 -
轻量型注意力模块:ULSAM
ULSAM: Ultra-Lightweight Subspace Attention Module for Compact Convolutional Neural Networks论文地址作者提出了一种新的用于紧凑网络神经网络的注意力块(ULSAM),它可以学习每个特征子空间的个体注意力映射,并能够在多尺度、多频率特征学习的同时高效地学习跨信道信息。主要思想:将提取的特征分成g组,对每组的子特征(论文中称问subspace)进行空间上的重新校准,最后,把g组特征concatenate到一起。具体原创 2020-10-10 15:53:56 · 3956 阅读 · 19 评论 -
知识蒸馏老鼻祖之Distilling the Knowledge in a Neural Network
Distilling the Knowledge in a Neural Network最重要的思想是提出用soft target辅助hard target组成loss,一起训练student model。那soft target与hard target到底指的是什么?它们之间有什么不同呢?hard target:hard target其实就是数据的标签,比如分类驴和马,识别马时,hard target只有马的index处的值为1,驴的标签则为0.soft target:soft target是原创 2020-10-09 19:00:04 · 1651 阅读 · 3 评论 -
pytorch 如何在改变基础网络之后使用预训练模型
我们在做具体的项目时,经常需要我们改变基础网络,但手头上的数据有限,所以想高质量的完成项目,我们需要使用预训练模型。这里我介绍一种方法能够在改变基础网络的同时加载预训练模型。1.在原有backbone中增加层并载入pretrained modelclass ResNet(nn.Module): def __init__(self, block, layers, num_classes...原创 2019-12-17 17:30:18 · 4008 阅读 · 4 评论 -
pytorch dilated convolution的感受野,特征图尺度及padding计算
Dilated convolutiondilated convolution即空洞卷积,它的出现有效的解决了feature map感受野单一的情况。利用空洞增加感受野,并不增加额外的params和flops,使得同样size的kernel拥有不同的感受野。但同时由于空洞的存在会对原有信息造成遗漏,无法全覆盖的生成令人满意的feature。1.空洞卷积感受野的计算感受野尺寸=2(rate-1)...原创 2019-12-17 17:02:12 · 1963 阅读 · 2 评论