自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(18)
  • 收藏
  • 关注

原创 从文件夹随机抽取文件到另外一个文件夹

##深度学习过程中,需要制作训练集和验证集、测试集。import os, random, shutildef moveFile(fileDir): pathDir = os.listdir(fileDir) #取图片的原始路径 filenumber=len(pathDir) rate=0.1 #自定义抽取图片的比例,比方说100张抽10张,那就是0.1 picknumber=int(filenumber*rate) #按照rat

2021-04-29 09:29:33 1358

原创 mmdetection中安装mmcv的一个小坑

一切安装正常,就是MMCV编译报错。官网的教程是没有问题的。要注意cuda版本的问题。我遇到的问题是nvcc -V中的cuda版本是9.0,nvidia-smi的cuda版本是10.2。MMCV编译的时候根据nvcc -V中的cuda版本来的。一般情况是没有这个问题,如果是在公用的服务器上有可能遇到。解决方法进入:/usr/local中查看cuda版本。发现有cuda-10.2和cuda-9.0。编译的时候使用的是cuda-9.0和你安装的MMCV版本不一致。vim ~.bashrcexp

2021-04-25 10:21:02 1784 2

转载 转载系列【检测】:CVPR2016 | You Only Look Once: Unified, Real-Time Object Detection

参考: http://blog.csdn.net/u011534057/article/details/51244354 https://zhuanlan.zhihu.com/p/24916786 论文下载: http://arxiv.org/abs/1506.02640  darknet版的代码下载: https://github.com/pjreddie/darknet tensorflow版本的...

2021-04-23 00:36:30 275

转载 转载系列【分割】:ECCV2020 | SOLO: Segmenting Objects by Locations

文章目录 一、背景二、本文方法三、本文方法的具体做法3.1 问题定义3.1.1 Semantic category3.1.2 Instance Mask 3.2 Network Architecture3.3 SOLO learning3.3.1 Label Assignment3.3.2 Loss Function...

2021-04-22 16:39:33 620

原创 论文阅读:CVPR2021 | Swin Transformer: Hierarchical Vision Transformer using Shifted Windows

文章目录前言一、Introduction二、使用步骤1.引入库2.读入数据总结前言本文提出了一种新的视觉Transformer,称为Swin Transformer,它可以很好地作为计算机视觉的通用主干。将Transformer从语言转换为视觉的挑战来自这两个领域之间的差异,例如视觉实体的大小差异很大,图像中的像素与文本中的文字相比分辨率较高。为了解决这些差异,我们提出了一种分层转换器,其表示是通过移位窗口来计算的。移位窗口方案通过将自注意计算限制到非重叠的局部窗口,同时还允许跨窗口连接,带来了更高的

2021-04-21 17:21:16 2409 1

转载 转载系列:注意力机制技术总结

前言: 注意力机制在视觉上是非常重要的部分,这方面的综述、总结有很多。为了本文总结的全面性,我基本都看了一遍。然而这些综述要么面面俱到,对所有内容都非常详细地阐述,包括一些非常不常用的,过时的论文或结构;要么没分清重点,有些内容跟论文有关,但跟注意力无关,这些文章也把这些内容总结到里面。 什么是注意力?就是只写有用的,只留下值得关注的部分。对于已经过时的结构或论文,不为了刻意做到“史上最全的....

2021-04-20 18:06:06 429

转载 转载系列:池化技术总结

导言:     池化是一个几乎所有做深度学习的人都了解的一个技术,大家对池化如何进行前向传播也都了解,池化的作用也了解一二。然而,池化如何回传梯度呢,池化回传梯度的原则是什么呢,最大池化与平均池化的区别是什么呢,什么时候选择最大池化、什么时候选择平均池化呢。     主要用的池化操作有平均池化、最大池化、全局平均池化,全局自适应池化。此外还有很多,如Ro...

2021-04-20 18:01:35 449

转载 转载:特征金字塔技术总结

前言: 特征金字塔是目前用于目标检测、语义分割、行为识别等方面比较重要的一个部分,对于提高模型性能具有非常好的表现。 不同大小的目标都经过了相同的降采样比例后会出现较大的语义代沟,最常见的表现就是小目标检测精度比较低。特征金字塔具有在不同尺度下有不同分辨率的特点,不同大小的目标都可以在相应的尺度下拥有合适的特征表示,通过融合多尺度信息,在不同尺度下对不同大小的目标进行预测,从而很好地提升了模型...

2021-04-20 17:58:04 644

原创 NMS小总结

文章目录前言一、标准 NMS二、Soft NMS三、DIoU NMS前言Non-Maximum Suppression(NMS)非极大值抑制,也有个别地方称之为非最大值抑制。个人认为前者更为贴切, 因为其具体实现原理是找到所有局部最大值, 并抑制非局部最大值,而不是找全局最大值。从字面意思理解,抑制那些非极大值的元素,保留极大值元素。其主要用于目标检测,目标跟踪,3D 重建,数据挖掘等。目前 NMS 常用的有标准 NMS, Soft NMS,DIOU_NMS 等。后续出现了新的 Softer NMS,

2021-04-20 16:15:49 499

原创 pytorch 改变FeatureMap大小----interpolate

pytorch中使用interpolate可以很轻松的通过上下采样来实现改变Feature Map的Size。import torch.nn.functional as F#网络中的tensor都是float类型q = torch.randint(-2,4,(1,3,5,5)).float()print(q)#直接设置size大小y1 = F.interpolate(q, size=(3,3))print(y1)tensor([[[[-1., 0., -2., 2., 3.],

2021-04-19 19:59:12 818 1

原创 论文阅读:CVPR2020 | MOCOV2:Improved Baselines with Momentum Contrastive Learning

文章目录前言一、Introduction二、Improved designs总结前言对比无监督学习最近显示出令人鼓舞的进展,例如在动量对比(MoCo)和SimCLR方面。在本文中,我们将通过在MoCo框架中实现SimCLR的两个设计改进来验证它们的有效性。通过对MoCo进行简单的修改-即使用MLP投影头和更多的数据增强-我们建立了更强大的基线,其表现优于SimCLR,并且不需要大量的训练批次一、Introduction最近关于图像的无监督表征学习的研究都集中在一个中心概念上,称为对比学习。结果是令

2021-04-19 11:33:46 1690

原创 论文阅读:CVPR2020 | MoCo:Momentum Contrast for Unsupervised Visual Representation Learning

文章目录前言一、Introduction二、MethodContrastive Learning as Dictionary Look-upMomentum ContrastDictionary as a queue.Momentum update三、解析总结前言论文链接: https://arxiv.org/pdf/1911.05722.pdf.提出了一种无监督视觉表征学习的动量对比(MoCo)方法。从对比学习[29]作为字典查找的角度出发,我们建立了一个带有队列和移动平均编码器的动态字典。这使得

2021-04-16 15:52:53 699

原创 论文阅读:CVPR2021 | Distribution Alignment: A Unified Framework for Long-tail Visual Recognition

文章目录前言一、Introduction二、Related WorksOne-stage Imbalance LearningTwo-stage Imbalance Learning三、ApproachDistribution AlignmentAdaptive Calibration FunctionAlignment with Generalized Re-weighting总结前言论文链接: https://arxiv.org/pdf/2103.16370.pdf.尽管深度神经网络最近取得了成

2021-04-14 15:32:19 2495 2

原创 论文阅读: ICLR 2021 | AN IMAGE IS WORTH 16X16 WORDS: TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE

文章目录前言一、METHOD总结前言虽然Transformer架构已经成为自然语言处理任务的事实标准,但它在计算机视觉方面的应用仍然有限。在视觉上,注意力要么与卷积网络结合使用,要么用来替换卷积网络的某些组件,同时保持它们的整体结构不变。作者表明,这种对CNN的依赖是不必要的,直接应用于图像块序列的纯Transformer可以很好地执行图像分类任务。在对大量数据进行预训练并传输到多个中型或小型图像识别基准(ImageNet、CIFAR-100、VTAB等)时,视觉Transformer(VIT)与最先

2021-04-13 16:54:11 445

原创 论文阅读:CVPR2021 | RobustNet: Improving Domain Generalization in Urban-Scene Segmentation via Instance

文章目录前言一、Introduction二、Proposed MethodInstance Whitening LossMargin-based relaxation of whitening lossSeparating Covariance ElementsNetwork architecture with proposed ISW loss总结前言论文链接: https://arxiv.org/abs/2103.15597.提高深度神经网络对不可见领域的泛化能力对于现实世界中的安全关键应用(如

2021-04-12 16:16:31 2789 2

原创 论文阅读:CVPR2019 | GCNet: Non-local Networks Meet Squeeze-Excitation Networks and Beyond

文章目录前言一、Introduction二、Non-local NetworksMethod总结前言论文地址:https://arxiv.org/abs/1904.11492?context=cs.LG.Non-Local Network(NLnet)通过将特定于查询的全局上下文聚合到每个查询位置,为捕获远程依赖项提供了一种开创性的方法。然而,通过严格的实证分析发现,对于图像中不同的查询位置,Non-Local Network建模的全局上下文几乎是相同的。在本文中,作者利用这一发现创建了一个基于查询

2021-04-08 16:48:08 2567 1

原创 论文阅读:CVPR2021 | Involution: Inverting the Inherence of Convolution for Visual Recognition

文章目录前言一、Introduction二、Involution三、self-attention的相关性四、Rednet网络搭建总结前言卷积已经成为现代神经网络的核心组成部分,引发了视觉深度学习的浪潮。在这项工作重新思考了视觉任务的标准卷积的内在原理,特别是空间不变性和通道特异性。相反,作者提出了一种新的用于深度神经网络的原子操作,通过颠倒前面提到的卷积设计原则,称为内卷。此外,我们还揭开了最近流行的自我注意运算符的神秘面纱,并将其归入我们的内卷家族,作为一个过于复杂的实例化。本文提出的内卷算子可以.

2021-04-07 17:17:29 2055

原创 论文阅读:2020 | On Feature Normalization and Data Augmentation

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录前言一、Introduction二、使用步骤1.引入库2.读入数据总结前言论文链接: https://arxiv.org/pdf/2002.11102.pdf.现代神经网络训练在很大程度上依赖于数据增强来提高泛化能力。在标签保留增强方法取得初步成功后,最近出现了对标签扰动方法的兴趣激增,这种方法将训练样本中的特征和标签结合在一起,以平滑学习的决策面。在本文中,提出了一种新的增强方法,该方法利用提取的一阶和二阶矩,并通过特征归

2021-04-01 12:10:08 1512

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除