- 博客(243)
- 收藏
- 关注
转载 【linux】linux上杀死进程命令:kill、pkill、killall杀死进程
在linux上,一般常用的杀死进程的命令是kill,但是也有缺陷,下面说。3、强制杀死进程,有些进程可能杀不死,就加个-9参数,强制让它死掉!1、查看指定名称的进程,如下我查看运行python程序的进程。2、根据进程号(PID)杀死进程:第二列显示的就是进程号。如下是我多线程开启了20个程序,批量杀死进程,统统干掉!5、杀死多个进程,在后面跟多个进程的PID号即可。killall和pkill的用法几乎差不多。1、killall 批量杀死进程。2、killall 更多参数。2、pkill 更多参数。
2023-08-19 11:15:31 3729
原创 【论文阅读】TransCAM: Transformer Attention-based CAM Refinement for WSSS
大多数现有的WSSS方法都是基于类激活映射(CAM)来生成像素级的伪标签,用于监督训练。但是基于CNN的WSSS方法只是凸出最具有区别性的地方,即CAM部分激活而不是整体对象。作者提出了TransCAM模型,它基于Conforme的backbone结构,利用transformer的attention权重来细化CNN分支的CAM。
2023-07-12 16:33:22 2009
原创 【pytorch】单机多GPU报错 :Expected all tensors to be on the same device, but found at least two devices
单卡多GPU训练报错处理思路
2023-07-06 13:19:50 5331
原创 【docker】在windows下配置linux深度学习环境并开启ssh远程连接
liunux下配置深度学习程序方便,windows下用起来更习惯。windows下直接利用虚拟机是不太容易对GPU进行虚拟,利用docker就可以。这里简单介绍了在win主机下如利用docker,配置虚拟机环境,并和主机开启ssh连接配置。
2023-07-04 20:47:46 1787
原创 【论文阅读】Self-supervised Image-specific Prototype Exploration for WSSS
WSSS论文阅读
2023-06-30 12:21:38 1016
转载 【pytorch】ops.roi_align 参数解析
RoIAlign 用于将任意尺寸感兴趣区域的特征图,都转换为具有固定尺寸 H×W 的小特征图。ops.roi_align是一种在计算机视觉中常用的操作,用于将感兴趣区域 (Region of Interest, ROI) 对齐到固定大小的特征图上。该操作通常用于目标检测、目标识别和姿态估计等任务中。
2023-06-21 16:40:17 1334
转载 【pytorch】固定模型部分权重进行训练
在深度学习领域,经常需要使用其他人已训练好的模型进行改进或微调,这个时候我们会加载已有的预训练模型文件的参数,如果网络结构不变,希望使用新数据微调部分网络参数。这时我们则需要冻结部分参数,禁止其更新。
2023-06-21 16:12:59 1132
转载 【pytorch】tensor.backward() 解释
总结:对某个计算后的tensor求backward就是:依次对该tensor向上求梯度,然后把该梯度放到对应tensor.grad中。
2023-03-04 22:28:36 755
原创 【论文阅读】C2AM: Contrastive learning of Class-agnostic Activation Map for WSOL and SS
图像分类产生的CAM图通常集中于discriminative区域。作者提出了C2AM模型,使用未标记图像训练 获得类不可知激活图(Class-agnostic Activation Map)。作者的idea主要是:1)前景对象和背景对象的语义信息通常差距较大。2)颜色或者纹理相近的前景或者背景对象有相似的表征。作者将这些关系梳理成正负对,然后利用对比学习分离前景和背景。
2023-02-27 17:11:42 932
原创 【论文阅读】Anti-Adversarially Manipulated Attributions for WSSS
作者提出了一种叫CAM的生成方法叫AdvCAM。它采用了和adversarial attack相反的方式,使得的图像的更多的非discriminative的区域,也参与到图像的分类中,进而产生更完整的CAM。此外作者还设计了新的regularization 方法来抑制与目标对象无关的区域(产生CAM),并限制已经得分较高的区域(产生CAM)。
2023-02-22 11:44:54 722
转载 【linux】screen命令
在服务器上搭建一些服务的时候,经常要用到screen命令。某些服务开启的时候需要占据一整个控制台,如果关闭了就会导致进程终止。这就成了类似单进程的效果。而screen命令就是为了能够在服务器上开启多个控制面板(screen),用以容纳不同的任务。
2023-02-07 09:05:55 3407
原创 【论文阅读】Weakly Supervised Learning of Instance Segmentation with Inter-pixel Relations
作者提出了一种实例弱监督分割的模型:训练分类模型获得seeds,然后expansion获得更清晰的边缘。作者提出了IRNet,主打两点:1.使用了Instance label进行seeds的传播和扩展。2.在attention map上,借助 inter-pixel relations训练模型。
2023-01-01 19:02:17 690 1
原创 【代码记录】(图像分割数据)转(VOC目标检测数据)转(coco目标检测数据)
最近帮忙跑了一个实验,要用目标检测算法检测处理分割数据集,于是就涉及到了这几种数据的互相转换的问题。主要利用opencv里面的外界矩阵方法获得边框,然后存储到xml文件中去:(VOC目标检测数据)转(coco目标检测数据)实验的算法是coco数据格式,之后将voc数据转为coco格式:数据读取和方框绘制使用coco库读取.json文件:绘制结果:
2022-12-06 12:25:17 655
原创 【论文阅读】Weakly Supervised Semantic Segmentation using Out-of-Distribution Data
作者认为在WSSS任务中,会出现前景任务和背景任务的一些虚假的相关性,比如车轨和火车。作者利用分类器可能做出错误判断的方法,标注一些分布外(Out-of-Distribution)的数据。用这些数据提供的cue,来减弱分割中的错误关联性。该消耗了较小的标注成本,效果较好。
2022-11-17 22:28:09 1069
转载 【pytorch】计算向量相似度
本文提供几个pytorch中常用的向量相似度评估方法,并给出其源码实现,供大家参考。分别为以下六个。(其中第一个pytoch自带有库函数)
2022-11-14 20:57:58 1618
原创 【论文阅读】Threshold Matters in WSSS: Manipulating the Activation for the Robust and Accurat...
一篇弱监督分割论文阅读笔记
2022-11-10 19:07:55 517 5
转载 【transfomer】transfomer中Q、K、V的理解
简单来说,Q和K用于计算相关性系数,V相当于原始序列。V在相关性系数的加权下获得注意力层的输出。
2022-11-05 12:05:22 3804
转载 【nvidia-htop】GPU监控工具
常用的nvidia-smi工具看不到谁在用GPU,这里推荐一款GPU检测工具:nvidia-htop,仅支持 Linux。
2022-11-05 10:48:59 1391
转载 【python】系统终端运行python文件报错“ImportError/ModuleNotFoundError:No Module named xx”
No Module named "xxx"解决办法
2022-11-05 10:17:29 667 1
原创 【论文阅读】Leveraging Auxiliary Tasks with Affinity Learning for Weakly Supervised Semantic Segmentation
弱监督分割是一项比较有挑战性的任务,仅依赖于图像级标签的CAM方法不足以提供完整的监督。1.作者提出了AuxSegNet,利用显著性检测(saliency detection)和多标签分类辅助改进WSSS任务。2.作者提出一种从显著reprentation和分割reprentation中学习cross-task global pixel level affinity 的方法,affinity 为显著性检测和CAM提供伪标签以refine其结果。
2022-11-03 21:50:25 705
原创 【论文阅读】Online Attention Accumulation for Weakly Supervised Semantic Segmentation
1.在不同的训练阶段,网络对关注于目标的不同区域。基于此作者提出了Online Attention Accumulation(OAA)方法,利用不同阶段的训练注意力来获得更多完整的目标区域。2.由于某些目标在训练阶段注意力的特征变化不大,作者在Online Attention Accumulation加入了attention drop层(相当于遮挡一部分),去"扩大"网络在训练过程中注意力的运动范围。
2022-10-27 21:08:33 1004
原创 【论文阅读】L2G: A Simple Local-to-Global Knowledge Transfer Framework for Weakly Supervised Semantic Seg
提出了L2G模型,一种从local知识到global知识的转移的框架。作者发现使用局部图像作为分类的输出,可以学习更多的细节区域,针对这点,作者首先利用一个局部分类网络,从输入图像中随机裁剪的多个local feature map中提取注意力(CAM);然后global feature map中在线学习多个local feature map的互补知识。
2022-10-26 17:47:51 1831
原创 【论文阅读】DenseCLIP: Language-Guided Dense Prediction with Context-Aware Prompting
CLIP模型对下游分类任务取得很好的效果,作者通过隐式和显式的利用CLIP中的预训练知识,提出一个密集型预测任务的框架,该框架通用于各种模型和主干网络,并在分割任务上有很好的效果。
2022-10-17 20:01:31 1628 1
原创 【论文阅读】Extract Free Dense Labels from CLIP
许多论文研究了CLIP在图像分类的表现,作者提出了采用CLIP去处理像素型密集任务,如图像分割,作者提出了MaskCLIP和MaskCLIP+均取得了很好的效果。
2022-10-14 12:12:21 2519 2
原创 【论文阅读】Cross Language Image Matching for Weakly Supervised Semantic Segmentation
一篇应用CLIP在弱监督分割领域的论文
2022-10-08 23:20:44 972 1
原创 【论文阅读】Regional Semantic Contrast and Aggregation for Weakly Supervised Semantic Segmentation
弱监督分割是一个非常具有挑战的任务。很多方法从单个图像或者图像对获得相对有限的语义标注信息。作者提出来使用弱标签的训练集数据进行丰富的语义信息的学习。提出了regional semantic contrast and aggregation (RCA) 模块,主要包括两个方面:1.semantic contrast:让网络对大量不同类别的区域的信息进行学习,以使有一个整体的pattern的理解(数据集级别的learning方法)
2022-09-28 16:29:34 1640 2
原创 【论文】Learning Affinity from Attention: ... Weakly-Supervised Semantic Segmentation with Transformers
论文阅读笔记:Learning Affinity from Attention: End-to-End Weakly-Supervised Semantic Segmentation with Transformers
2022-09-20 16:09:06 1301
转载 【pytorch】不同层设置不同学习率
尤其是当我们在使用预训练的模型时,需要对一些除了主干网络以外的分支进行单独修改并进行初始化,其他主干网络层的参数采用预训练的模型参数进行初始化,这个时候我们希望在进行训练过程中,除主干网络只进行微调,不需要过多改变参数,因此需要设置较小的学习率。好像只能对一个具体的层进行参数的学习率设置,而不能再细化下去对每个层的不同位置的参数进行学习率的精细调整(因为它需要可以构成一个参数组的可迭代索引对象)不同的参数可能需要不同的学习率,本文主要实现的是不同层中参数的不同学习率设置。...
2022-08-09 18:53:09 2705
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人