![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习基础知识
交换喜悲
这个作者很懒,什么都没留下…
展开
-
mmdetection中的Spatial-Transform-Decoupling项目部署,debug记录
安装conda,在root/anaconda/bin。在这之前,因为是新的服务器,很多包没有安装。按ESC 按:wq 删除是Delete。原创 2024-07-08 20:53:40 · 304 阅读 · 0 评论 -
深度学习之半监督学习:一文梳理目标检测中的半监督学习策略
传统机器学习根据训练数据集中的标注情况,有着不同的场景,主要包括:监督学习、弱监督学习、弱半监督学习、半监督学习。由于目标检测任务的特殊性,在介绍半监督目标检测方法之前,我们查看一下目标检测在四个方向上的具体设定:有监督目标检测:拥有大规模带标签的数据,包括完整的实例级别的标注,即包含坐标和类别信息弱监督目标检测:数据集中的标注仅包含类别信息,不包含坐标信息弱半监督目标检测:数据集中拥有部分实例级别的标注,大量弱标注数据,模型希望利用大规模的弱标注数据提升模型的检测能力半监督目标检测。原创 2024-07-02 15:51:11 · 832 阅读 · 0 评论 -
import name ‘UnencryptedCookieSessi_annot ionFactoryConfig‘
下载apex不能简单地运行。原创 2024-07-01 16:25:41 · 146 阅读 · 0 评论 -
注意力机制之ECA-Net:Efficient Channel Attention for Deep Convolutional Neural Network
近年来,通道注意机制被证明在改善深层卷积神经网络(CNN)的性能方面提供了巨大的潜力。然而现有的大多数方法都致力于开发更复杂的注意模块以获得更好的性能,这不可避免地增加了模型的复杂性。为了克服性能和复杂度的矛盾,提出了一种高效的通道注意力(ECA)模块,该模块只需要很小的参数,同时可以带来明显的性能提升。通过对SENET中通道注意模块的剖析,我们实证地表明避免降维对于学习通道注意是重要的,适当的跨通道交互可以在显著降低模型复杂度的同时保持性能。原创 2024-06-30 20:03:22 · 661 阅读 · 0 评论 -
目标检测常用涨点方法:注意力机制小结(空间注意力、通道注意力、CBAM等)
它使用了压缩和激励机制,在压缩阶段额外引出一个分支,该分支压缩全局空间信息学习到特征权重,此权重可以视作不同通道所分配的“注意力”,越重要的通道获得的权重越大,集中分配更多的资源训练学习。空间注意力的实施主要有两个步骤,首先在特征不同的通道上进行平均池化或最大池化,对比不同通道之间的像素值,来获得该像素点不同通道上最重要的部分。如上图所示,CBAM的主要目标是通过在CNN中引入绿色框所示的通道注意力和紫色框所示的空间注意力来提高模型的感知能力,从而在不增加网络复杂性的情况下改善性能。原创 2024-06-30 17:53:33 · 483 阅读 · 0 评论 -
论文阅读之旋转目标检测ARC:《Adaptive Rotated Convolution for Rotated Object Detection》
旋转物体检测旨在识别和定位图像中任意方向的物体。在这种情况下,物体的方向在不同图像中差异很大,而一幅图像中存在多个物体方向。这种固有特性使得标准主干网络很难提取这些任意方向物体的高质量特征。在本文中,我们提出了自适应旋转卷积 (ARC)模块来应对上述挑战。在我们的ARC模块中,卷积核自适应地旋转以提取不同图像中方向不同的物体特征,并引入了一种高效的条件计算机制来适应图像中物体的大方向变化。这两种设计在旋转物体检测问题中无缝协作。原创 2024-06-30 13:23:10 · 1068 阅读 · 0 评论 -
深度学习之旋转目标检测复现:ARC-main 关于mvcc,mvcc-full ,mmdet,mmegine的爬坑记录
我是先导入ARC-main整个项目,后下载的BboxToolkit项目,解压后放进ARC-main,在splitn data的过程中,出现BboxToolkit包无法下载的问题,当时我忘记运行命令,cd到BboxToolkit后,即可成功下载BboxToolkit包,直接运行命令无法 成功下载,匹配不到合适的版本包。坑:DOTA数据集,官网上下载的train和test都分为part1,part2,貌似只是压缩包太大了。。解压之后放在一起就可以了,train的原始文件夹是1411张。(心累)在。原创 2024-06-17 13:48:12 · 1332 阅读 · 0 评论 -
苍穹外卖中的Druid问题
一、jar包启动解决报错 discard long time none recevied connection。升级druid版本到1.2.9。原创 2024-06-05 22:05:21 · 113 阅读 · 0 评论 -
idea改变任务栏字体样式及大小
*File——>Settings——>Appearancd&Behavior——>Appearanc—>Zoom )**修改Zoom的大小,比例缩放。原创 2024-06-05 16:50:56 · 333 阅读 · 0 评论 -
python基础知识:py文件转换为jupyter文件
py文件转换为ipynb文件原创 2024-05-28 10:51:13 · 443 阅读 · 0 评论 -
给pdf加水印,python实现
【代码】给pdf加水印,python实现。原创 2024-05-28 10:42:46 · 538 阅读 · 0 评论 -
计算机视觉之边缘提取
1)梯度的本意是一个向量(矢量),表示某一函数在该点处的方向导数沿着该方向取得最大值,即函数在该点处沿着该方向(此梯度的方向)变化最快,变化率最大。图像的边缘是指图像局部区域亮度变化显著的部分,一个灰度值在很小的缓冲区域内急剧变化到另一个灰度相差较大的灰度值。通过边缘算子提取轮廓,例如Sobel算子。原创 2024-05-05 21:42:18 · 257 阅读 · 1 评论 -
tensorboard:远程服务器查看不显示问题
自己租的autodl平台的显卡,在查看tensorboard自己设置的scalar和图片时显示无法访问。将代码中的summarywriter路径更改到root/tf-logs下面,即可查看表格曲线。原创 2024-04-29 22:22:44 · 104 阅读 · 0 评论 -
python目标检测结果图像素转换(二值图和灰度图)
昨天在复现模型的时候发现test的结果图都是黑色的,输出像素发现白色是1,需要将白的像素乘以255,然后再输出,自己写的脚本如下(为了加快速度,用gpu转换,但是感觉速度还是一般)自己更改一下输入和输出的文件夹名称就可以,可以实时查看处理的进度。原创 2024-04-28 18:15:38 · 242 阅读 · 1 评论 -
mathtype设置公式编号,公式居中以及编号靠右
新建样式,然后设置格式-制表位,选择对齐方式,居中对齐设置刚才的一半,右对齐设置刚才的值;看到栏的宽度,然后去设置样式。首先点击栏,选择更多栏去看。原创 2024-04-24 22:15:38 · 1349 阅读 · 0 评论 -
伪装目标检测中数据集的标注格式:COCO和VOC
这样生成的xml文件,没有之前COD10K标注的segmentation信息,还需要进一步考虑,在转换为xml的脚本中加上识别segmentation部分。1.OSFormer中提供的COD10K的json格式,是coco的格式,但由于伪装目标检测任务的特殊性,标注信息中还有一个segmentation段。原创 2024-04-23 17:41:18 · 304 阅读 · 0 评论 -
python环境报错解决:AttributeError: partially initialized module ‘cv2‘ has no attribute ‘_registerMatType‘
是因为同时安装了opencv-python和opencv-contrib-python 版本之间不匹配造成的,删除opencv-contrib-python后opencv-python也会出错,就把两个都删除后安装opencv-python及相匹配的版本的opencv-contrib-python,通过下载低于4.3的版本解决错误。原创 2024-03-28 23:52:10 · 1138 阅读 · 0 评论 -
深度学习论文阅读之【Distilling the Knowledge in a Neural Network】提炼神经网络中的知识
提高几乎所有机器学习算法性能的一个非常简单的方法是在相同的数据上训练许多不同的模型,然后对它们的预测进行平均[3]。不幸的是,使用整个模型集合进行预测非常麻烦,并且计算成本可能太高,无法部署到大量用户,尤其是在单个模型是大型神经网络的情况下。Caruana 和他的合作者 [1] 已经证明,可以将集成中的知识压缩到单个模型中,该模型更容易部署,并且我们使用不同的压缩技术进一步开发了这种方法。原创 2024-03-28 15:33:35 · 920 阅读 · 0 评论 -
伪装目标检测之注意力CBAM:《Convolutional Block Attention Module》
我们提出了卷积块注意力模块(CBAM),这是一种简单而有效的用于前馈卷积神经网络的注意力模块。给定一个中间特征图,我们的模块依次推断沿着两个独立维度的注意力图,通道和空间,然后将这些注意力图与输入特征图相乘,进行自适应特征细化。由于CBAM是一个轻量级和通用的模块,它可以无缝地集成到任何CNN架构中,几乎没有额外开销,并且可以与基础CNN一起端到端地进行训练。我们通过在ImageNet-1K、MS COCO检测和VOC 2007检测数据集上进行大量实验来验证我们的CBAM。原创 2024-03-22 21:17:45 · 1145 阅读 · 0 评论 -
解决pycharm报错Cannot find remote credentials for target config com.jetbrains.plugins.remotesdk.target
最后将工程目录下的.idea目录删除,然后重新创建工程。再将之前的解释器全部删除,重新创建即解决了这个问题。使用的是ssh方式,解释器使用的是conda里的自定义的python。后来,尝试了几种方法,都没法解决,比如删了解释器重新添加等。原创 2024-03-13 23:57:17 · 2119 阅读 · 0 评论 -
Linux服务器进程退出了,但是显存占用问题的解决
刚刚在用租的服务器train的时候,一直显示 out of memory,但是并没有程序在跑,搜索了一下回忆起来之前遇到过这种问题,是自己看不见进程。再次查看显存,会发现已经清空。查看所有的进程与PID。原创 2024-03-13 23:53:33 · 555 阅读 · 0 评论 -
深度学习基础知识之通道数channels
在cnn种,通道数就是用于提取特征的滤波器的数量(卷积核数量),在卷积过程中,每个滤波器会对输入特征图进行卷积操作,生成一个新的特征图,通道数就是指卷积后生成的特征图的数量,每个通道可以表示不同的特征信息,例如图像的颜色、边缘、纹理等。这里面352x352表示的是像素大小,即高和宽都为352个像素,而3表示的是通道数,指输入的是3通道的RGB图像,每个颜色通道的取值范围为0-255,可以表示256种颜色强度。大多数的深度学习模型,模型上会展示图片的尺寸,如:352x352x3。原创 2024-03-12 20:15:19 · 991 阅读 · 0 评论 -
深度学习基础知识之Atrous卷积(空洞卷积)
空洞卷积是一种不增加参数量/运算量,同时增加输出单元感受野的一种方法,Atrous卷积,就是带洞的卷积,卷积核是稀疏的,此外,空洞卷积还可以捕捉多尺度上下文信息,通过设置不同的dilation rate,感受野就会不一样,也即获取了多尺度信息,多尺度信息在视觉任务中相当重要。太久不看代码确实生疏了,盯着一堆不同的dilation,不知道有什么作用,论文中说是Atrous卷积,原来就是空洞卷积的意思。简单来说,就是在原本实心的kernal元素之间按照一定的规律加0作为空格。原创 2024-03-12 18:49:07 · 844 阅读 · 0 评论 -
数据集标注工具anylabeling解析
代码和模型的下载都需要链接github,如果没有梯子可能速度太慢,下载不了模型,可以直接创建一个文件夹【路径不含有中文】存放anylabeling.exe,然后将medels文件夹复制到:C:\Users\用户名\anylabeling_data文件夹下,打开anylabeling.exe,选择工作文件夹,模型选择时选:segment anything(vit-l)【提供的models文件夹内指下载了该模型,因此如果用提供的models文件夹只能选用这个模型,别的模型需要另外下载。原创 2024-02-03 23:04:50 · 780 阅读 · 0 评论 -
深度学习-标注文件处理(txt批量转换为json文件)
接上篇,根据脚本可将coco128的128张图片,按照比例划分成训练集、测试集、验证集,同时生成相应的标注的labels文件夹,最近再看实例分离比较火的mask rcnn模型,准备进行调试但由于实验室算力不足,网上自己租的2080ti马,传整个coco2017实在是太慢了,检索了一下没有开源的部分coco2017数据集,于是我想到将coco128的数据转化成json文件,便于新手进行debug,节约时间和算力。说明我们生成的json文件是正确的。原创 2024-01-12 18:35:49 · 2186 阅读 · 1 评论 -
深度学习数据处理之分割coco128训练数据集脚本
coco数据集处理;目标检测;深度学习原创 2024-01-10 17:59:47 · 919 阅读 · 0 评论 -
torch的interpolate函数
在cv中,interpolate函数常用于图像的放大、比如在细粒度识别中,注意力图有时候会对特征图进行裁剪操作,将有用的部分裁剪出来,裁剪后的图像往往尺寸小于原来的特征图,这时候强制转换成原始图像大小是无效的,会丢失部分有用的信息,因此使用interpolate函数对其进行上采样操作,在保证图像信息不丢失的情况下,放大图像,从而放大图像的细节。功能:根据指定的size或者scale_factor进行上下采样,使用的插值算法取决于参数mode的取值。mode是linear的时候输入必须是3维的。原创 2023-12-13 17:13:32 · 852 阅读 · 1 评论 -
目标检测常用torch内置函数解析
深度学习目标检测方面,有很多地方要用到torch的内置函数,用起来确实很方便,但是看别人写的代码时,出现一个内置函数总是不知道它的用法,这里记录一下最近遇见的内置函数。其中input是输入的特征图数据,output_size是指定输出的大小,其可以是一个整数,表示输入的高度和宽度相等,或者是一个元组,表示输出的高度和宽度。原创 2024-01-06 16:57:00 · 361 阅读 · 1 评论 -
深度学习常用函数sigmoid和softmax函数解析
入坑目标检测四个多月,今天看到softmax函数时居然还是一怔,和sigmoid函数还是区分不清,检索了一些资料后决定写篇博客记录一下:实际应用中,softmax多用于多类分类之中,而sigmoid函数1用于多标签分类之中。而对于二分类任务来说,理论上二者没有任何区别,但是由于现在大多数的开源框架:pytorch、tensorflow等,计算矩阵方式不同,导致二者在反向传播的过程中有所区别,实验结果表明,不同的分类模型,可能softmax的效果好,也可能sigmoid的效果好。原创 2024-01-06 18:30:29 · 339 阅读 · 1 评论 -
详解卷积中常见参数及用法(stride、kernel_size、padding、dilation)
最近看自己方向的论文,发现有的时候还是分不清一些参数的用法和含义,比如今天就在stride和dilation之间思考了很久,知识确实是学杂了,为了加深印象决定记录下来。原创 2024-01-08 15:58:20 · 2188 阅读 · 0 评论