自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(110)
  • 收藏
  • 关注

原创 Pattern Recognition Letters投稿后续—小修

step 1: 进入小修后,系统第二项attach files,开始没有显示上传文件的地方,左边显示如下:这是表示右方需要的文件的复选框勾选,会保存到下一步,可以避免重复上传。如下所示step 2: 按下proceed后进入下一步上传最新文件,会显示如下有上传文件的按钮step 3: 这里上传最新的文件,这个需要上传tex源文件,切记,线下编译成功再上传,bbl文件一定要上传,不然会出现参考文献不显示的问题(当时我就是不知道,反复上传一堆错误,根本不知道是这个文件的问题,还以为tex文件有问题

2023-12-04 14:58:01 691 2

原创 ModuleNotFoundError: No module named ‘pycocotools‘

我进".cocoapi-master/PythonAPI/pycocotools"目录下查看,确实找不到_mask.c文件,网上提供的下载链接我也都看了,都没有这个文件!这种安装方式就此宣告失败…第二步执行不通过,我的一直显示下载不了!

2023-11-20 09:53:50 468

原创 安装mmcv库报错:AssertionError: MMCV==1.7.1 is used but incompatible. Please install mmcv>=1.3.8, <=1.7.0

本人安装的anaconda环境默认python=3.6,cuda11,操作如下。

2023-10-31 08:46:43 2084 1

原创 RuntimeError: scatter_cpu_(): Expected self.dtype to be equal to src.dtype

查阅资料发现是因为要填充的value与要被填充的tensor类型不同!如下图,输入scatter_时报错!

2023-08-31 16:03:22 357

原创 Pattern Recognition Letters投稿

下载elsarticle压缩包,然后找到elsarticle.dtx文件,在该目录下(输入“cmd”),输入命令latex elsarticle.ins生成elsarticle.cls。(上传顺序无所谓,可以击按钮“Update File Order”自动调整顺序)第一,在PRL官网下载,网址同下载论文模板网址相同,直接点击下载即可。经过研究发现那些并非乱码,而是由于自己上传文件的问题。elsevier 投稿时需要上传tex文件,不同文件要选择不同选项。

2023-08-24 15:03:26 1480

原创 代码运行出现:No module named ‘torch_geometric‘

这是没有torch_geometric库导致的,但是不能像一般库安装‘pip install 库名’或者‘conda install 库名’进行安装,经常会报错!!!

2023-08-15 10:31:16 2265 3

原创 解决ModuleNotFoundError: No module named ‘h5py‘

输出如下表示安装成功!

2023-04-13 16:12:27 4204 1

原创 解决ModuleNotFoundError: No module named ‘mat4py‘

输出如下表示安装成功!

2023-04-13 16:08:05 915

原创 《Shunted Transformer: Shunted Self-Attention》CVPR 2022 oral

最后,考虑到传统的feed-forward network中,全连接层是逐点的,不能学习cross token信息。在这里,未来通过指定前馈层中的细节来补充局部信息,作者提出detail specific feed-forward,如下图所示。具体地,通过在前馈层的两个全连接层之间添加特定于数据的层来补充前馈层中的局部细节。的长度更短,因此计算成本较低,但仍保留了捕获大对象的能力。变小时,虽然保留了更多的细节,但也带来了更多的计算成本。的值,因此,可以很好地定义模型和。中合并的token更多,

2023-04-13 14:17:08 643

原创 ModuleNotFoundError: No module named ‘matplotlib‘怎么解决

出现如下界面表示安装成功!

2023-04-11 09:48:04 1549

原创 解决ModuleNotFoundError: No module named ‘scipy‘

这是环境中没有安装scipy包,可以使用pip或者conda命令进行安装。出现如下输出表示安装成功!

2023-04-11 09:41:07 2677

原创 CVPR2022《Stand-Alone Inter-Frame Attention in Video Models》

通过深入研究帧间的变形来推断局部变形区域内的时间注意力,以进行时间建模这样的设计自然升级了这些视觉主干,具有时间建模的能力,从而促进了视频表示的学习。通过深入研究帧间的变形来推断局部变形区域内的时间注意力,以进行时间建模SIFA利用连续帧间局部区域内的时间相关性,通过注意力将其局部邻居聚集到相邻帧中,从而增强每帧的特征。通过深入研究帧间的变形来推断局部变形区域内的时间注意力,以进行时间建模然而,该方法仅在时间维度上捕获同一空间位置之间的运动线索,而忽略了不同空间位置的帧间相关性进行时间建模。

2023-03-13 16:58:22 691

原创 ValueError: Argument save_interval is deprecated and should be None.

经过分析发现,是安装ignite库版本过高

2023-03-07 10:26:28 857

原创 ICLR2023《Crossformer: Transformer Utilizing Cross-Dimension Dependency for Multivariate Time Series》

这是一篇ICLR2023 top 5%论文。

2023-02-24 10:40:42 5654 3

原创 latex 图片跑到引用后的解决办法

双栏情况下,当正文+参考文献占不到一页,而此时你的图片又刚好占了至少半页,此时图片就会被抵到参考文献后。

2022-11-15 09:55:24 11199 1

原创 IEEE Trans期刊Latex模板下载

下载官方网址:第一步:第二步:第三步:第四步:第五步:第六步:等待下载完成!!!

2022-09-29 09:25:35 622

原创 pytorch之torch.zeros_like,torch.ones_like和tensor按索引赋值

可以生成和括号内变量维度一致的全是0的内容。可以生成和括号内变量维度一致的全是1的内容。

2022-09-08 15:56:43 1544

原创 解决matplotlib绘图坐标轴没有刻度位置问题

如下图所示,横纵坐标轴上没有刻度,很难判断当前标签具体位置。

2022-08-09 15:27:34 2051

原创 解决matplotlib绘图x轴和y轴不在零点相交问题

代码】解决matplotlib绘图x轴和y轴不在零点相交问题。

2022-08-09 11:22:28 2572

原创 基于单样本数据增强方法—Max-drop,Cutout,Random Erasing,Mixup,CutMix,Hide-and-Seek,GridMask,FenceMask,KeepAugment

本篇博客是对计算机视觉任务中常见的几种基于单个样本进行数据增强的方法的一个总结,主要是给自己做一个笔记,如果有任何问题请大家指正(●ˇ∀ˇ●)数据增强的作用避免过拟合。当数据集具有某种明显的特征,例如数据集中图片基本在同一个场景中拍摄,使用Cutout方法和风格迁移变化等相关方法可避免模型学到跟目标无关的信息。提升模型鲁棒性,降低模型对图像的敏感度。当训练数据都属于比较理想的状态,碰到一些特殊情况,如遮挡,亮度,模糊等情况容易识别错误,对训练数据加上噪声,掩码等方法可提升模型鲁棒性。增加

2022-06-10 15:42:26 764

原创 基于contrast learning的few-shot learning论文集合(3)

论文五:《Few-shot Visual Reasoning with Meta-analogical Contrastive Learning》NIPS2020论文链接:https://proceedings.neurips.cc/paper/2020/file/c39e1a03859f9ee215bc49131d0caf33-Paper.pdf代码链接:无

2022-05-18 15:25:37 512

原创 基于contrast learning的few-shot learning论文集合(2)

论文三:《Supervised Momentum Contrastive Learning for Few-Shot Classification》CoRR 2021论文链接:https://arxiv.org/pdf/2101.11058.pdf代码链接:无这项工作中,作者通过将鉴别性的实例对比学习和监督性学习结合在一个称为Supervised Momentum Contrastive learning **(SUPMOCO)**的框架中,研究了自监督和监督学习这两种信息源的互补作用论文四:

2022-05-09 14:43:13 1008

原创 基于contrast learning的few-shot learning论文集合(1)

论文一:《Learning a Few-Shot Embedding Model with Contrastive Learning》AAAI 2021论文链接:https://www.aaai.org/AAAI21Papers/AAAI-2249.LiuC.pdf代码链接:https://github.com/corwinliu9669/Learning-a-Few-shot-Embedding-Model-with-Contrastive-Learning本文提出一种新的对比训练方案infoP

2022-05-07 11:38:22 1139 1

原创 CVPR2022《NFormer: Robust Person Re-identification with Neighbor Transformer》

论文链接:https://arxiv.53yu.com/pdf/2204.09331.pdf代码链接:https://github.com/haochenheheda/NFormer1. 动机Re-ID的主要挑战之一是,由于外部因素,如不同的相机设置,灯光,视角,遮挡,或内在因素,如服装改变,任何个人的外观通常会发生显著变化。因此,在对应于特定个体的表征中存在高度的身份内变异,导致不稳定的匹配和对异常值的敏感性2. 贡献提出了一个 Neighbor Transformer Network (.

2022-05-06 17:24:44 2485 7

原创 Warmup预热学习率

由于刚开始训练时,模型的权重(weights)是随机初始化的,此时若选择一个较大的学习率,可能带来模型的不稳定(振荡),选择Warmup预热学习率的方式,可以使得开始训练的几个epoches或者一些steps内学习率较小,在预热的小学习率下,模型可以慢慢趋于稳定,等模型相对稳定后再选择预先设置的学习率进行训练,使得模型收敛速度变得更快,模型效果更佳。更详细讲解请见博客 (附带代码) :https://blog.csdn.net/sinat_36618660/article/details/99650804

2022-03-29 14:41:55 318

原创 CVPR2022《BatchFormer: Learning to Explore Sample Relationships for Robust Representation Learning》

论文链接:https://arxiv.org/pdf/2203.01522.pdf代码链接:https://github.com/zhihou7/BatchFormer1. 动机尽管深度神经网络取得了成功,但由于数据的稀缺性,如数据不平衡、不可见分布和域转移等问题,深度表示学习仍面临许多挑战。为了解决上述问题,人们设计了多种方法以普通的方式探索样本关系(即无论是从输入还是从损失函数的角度),却都不能使深度神经网络本身具备探究样本关系的能力,即从batch维度的角度来看没有交互作用。而在数据稀缺的情况.

2022-03-28 21:27:26 2896

原创 CVPR2022《Mobile-Former: Bridging MobileNet and Transformer》

论文链接:https://arxiv.org/pdf/2108.05895.pdf代码链接:无1. 动机vision transformer (ViT)可以很好地建模全局信息,并实现与CNN相比显著的性能提升。但是,当计算资源受限时,ViT的增益减少。而针对计算成本方面的挑战,MobileNet和它的变体仍然占据着主导地位,因为它们通过分解深度和点卷积在局部处理过滤器中的效率很高。这就引出一个问题,**能否有这样一个高效的网络,它可以有效地编码局部处理和全局交互?**虽然之前已有工作结合卷积和视觉T.

2022-03-24 15:24:31 4676

原创 CVPR2022《A ConvNet for the 2020s》

论文链接:https://arxiv.org/pdf/2201.03545.pdf代码链接:https://github.com/facebookresearch/ConvNeXt摘要:ViT伴随着视觉的“20年代”咆哮而来,迅速的碾压了ConvNet成为主流的研究方向。然而,当应用于广义CV任务(如目标检测、语义分割)时,常规的ViT面临着极大挑战。因此,分层Transformer(如Swin Transformer)重新引入了ConvNet先验信息,使得Transformer成实际可行的骨干网.

2022-03-23 15:29:46 3937

原创 CVPR2022《An Image Patch is a Wave: Quantum Inspired Vision MLP》

论文链接:https://arxiv.org/pdf/2111.12294.pdf代码链接1:https: //github.com/huawei-noah/CV-Backbones/tree/master/wavemlp_pytorch代码链接2:https://gitee.com/mindspore/models/tree/master/research/cv/wave_mlp1. 问题最近的计算机视觉领域工作表明,一个主要由全连接层堆叠的纯MLP架构可以实现与CNN和transformer.

2022-03-23 15:03:40 5238 1

原创 CVPR2022《Cascade Transformers for End-to-End Person Search》

论文链接:https://arxiv.org/pdf/2203.09642.pdf代码链接:https://github.com/Kitware/COAT1. 挑战已有的工作面临着三个主要挑战:在特征学习方面,人脸检测和ReID之间存在着冲突。人检测的目的是学习在人群中泛化的特征,以将人与背景区分开,而ReID的目的是学习在人群中不泛化但能将人彼此区分开来的特征。显著的尺度或姿态变化增加了身份识别的难度。简单的特征融合策略可能会在特征嵌入中引入额外的背景噪声,导致ReID性能较差背景目标或.

2022-03-22 14:43:27 4109 6

原创 《Three things everyone should know about Vision Transformers》

论文链接:https://arxiv.org/pdf/2203.09795.pdf代码链接:无1. 动机虽然视觉Transformer已经取得了相当大的进展,但对其设计和训练程序的优化只进行了有限的探索2. 贡献这篇论文提供了三种关于训练视觉Transformer的见解:并行的视觉Transformer。提出了一个非常简单的方法来实现vit。从如下所示的顺序体系结构开始,作者通过成对地重组相同的块来并行化体系结构,这可以用于任何不同数量的并行块。这将产生具有相同数量参数和计算的体系结构,同时.

2022-03-21 15:06:40 1944

原创 ICML2021《Training data-efficient image transformers & distillation through attention》

论文链接:http://proceedings.mlr.press/v139/touvron21a/touvron21a.pdf代码链接:1. 动机VIT训练需要消耗大量的计算资源,且训练时间长。此外,当没有充足数据时很难泛化2. 贡献作者证明,不包含卷积层的神经网络可以在没有外部数据的情况下,在ImageNet上获得与当前技术水平相比具有竞争力的结果。且它们是在4个gpu的单个节点上学习的,需要3天时间。本文的两个新模型DeiT-S和DeiT-Ti参数更少,可以看作是ResNet-50和Re.

2022-03-19 14:55:39 1433

原创 CVPR2022《TransMix: Attend to Mix for Vision Transformers》

论文链接:https://arxiv.org/pdf/2111.09833.pdf代码链接:https://github.com/Beckschen/TransMix1. 动机最近很多研究已经发现,基于ViT的网络很难优化,如果训练数据不足,很容易过拟合。快速解决这一问题的方法是在训练过程中应用数据增强和正则化技术。其中,Mixup和CutMix等基于Mix的方法被证明对基于ViT的网络泛化特别有帮助。但是,以往基于Mixup的方法有一个潜在的先验知识,即假设目标的线性插值比率应该与输入插值中提出.

2022-03-18 21:24:42 1318

原创 ICLR2022《HOW DO VISION TRANSFORMERS WORK?》

论文链接:https://arxiv.org/abs/2202.06709代码链接:https://github.com/xxxnell/how-do-vits-work

2022-03-14 10:32:15 3247

原创 RuntimeError: CUDA error: CUBLAS_STATUS_NOT_INITIALIZED when calling `cublas‘

调用nn.linear时出现RuntimeError: CUDA error: CUBLAS_STATUS_NOT_INITIALIZED when calling `cublas’错误,搜索网上资料,主要指出以下原因:batch size太大(本人将batchsize设置成4,够小吧!还是不行。。。)CUDA版本和torch不匹配(本人cuda版本是10.1,pytorch版本安装的是cuda10.1+python3.8的pytorch1.6,不是这个原因)torch版本问题(调换版本依旧不行)

2022-03-10 11:21:03 46773 15

原创 NIPS2019《Cross Attention Network for Few-shot Classification》

发表于NIPS2019!!!论文链接:https://proceedings.neurips.cc/paper/2019/file/01894d6f048493d2cacde3c579c315a3-Paper.pdf代码链接:https://github.com/blue-blue272/fewshot-CAN1. 动机虽然有希望,但很少有人对所提取的特征的可识别性给予足够的重视。它们通常独立地从支持类和无标签查询样本中提取特征,因此特征不够有区别。一方面,支持/查询集中的测试图像来自不可见的类.

2022-03-08 16:17:32 2642 1

原创 《ECKPN: Explicit Class Knowledge Propagation Network for Transductive Few-shot Learning》

发表于CVPR2021!!!论文链接:https://arxiv.org/pdf/2106.08523.pdf代码链接:无1. 问题近年来,基于直推图的方法在少样本分类中取得了很大的成功。然而,现有的大多数方法都忽略了探索class-level的知识,这些知识很容易被人类从少数几个样本中学习到2. 贡献1)首次提出了一种基于图的端到端小样本学习体系结构,该体系结构可以明确地学习丰富的类知识,以指导查询样本的图推理2)建立了多头样本关系来探究两两样本之间的细粒度比较,这有助于基于两两关系学习更.

2022-03-08 11:16:35 2893

原创 《Prototypical Networks for Few-shot Learning》

发表于NIPS2017!!!论文链接:https://proceedings.neurips.cc/paper/2017/file/cb8da6767461f2812ae4290eac7cbc42-Paper.pdf代码链接:https://github.com/jakesnell/prototypical-networks1. 问题小样本分类问题——训练集中没有看到的新类,且每个新类只有少量的例子2. 贡献本文主要贡献就是为小样本分类提出一个新的网络——Prototypical Networ.

2022-03-07 20:12:07 309

原创 《Incremental Transformer Structure Enhanced Image Inpainting with Masking Positional Encoding》

发表于CVPR2022!!!代码链接:https://github.com/DQiaole/ZITS_inpainting1. 问题近年来,图像修复取得了显著的进展。然而,如何恢复纹理逼真、结构合理的图像仍然是一个难题。1)卷积神经网络的接收域有限,一些特定的方法只处理规则纹理,而失去了整体结构,如图1所示,对于场景,特别是纹理较弱的场景,如果没有对大图像的整体理解,很难恢复关键的边缘和线2)基于注意力的模型可以更好地学习结构恢复的长程依赖性,但在图像尺寸较大的情况下,由于计算量大而受到限制.

2022-03-07 16:24:55 1877

原创 ICLR2022《CDTrans: Cross-domain Transformer for Unsupervised Domain Adaptation》

论文链接:https://arxiv.org/pdf/2109.06165.pdf代码链接:https://github.com/CDTrans/CDTrans1. 动机无监督域适应(Unsupervised domain adaptive, UDA)是一种将知识从有标记的源域转移到不同的无标记目标域的方法。现有的UDA方法大多集中于学习领域不变的特征表示,无论是从领域级别还是类别级别,使用基于卷积神经网络(CNNs)的框架。基于类别级别的UDA的一个基本问题是目标域中的样本会产生伪标签,这些伪标签.

2022-03-07 11:09:24 2068 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除