- 博客(44)
- 收藏
- 关注
原创 Jetson nano 环境配置
这里因为jetson nano 中自带有python2.7版本和python3.6版本,因此,为了避免后续因python版本导致的错误,提前进行了虚拟环境的配置。(这里注意:在创建的虚拟环境中,我们指定python的版本为3.6,这是为了和后续的torch和torchvision所对应)arm机器上的torch和torchvision和linux上的版本不一样,不能把Linux的版本拿来用。因为国内的网络访问国外的服务器下载各种文件速度较慢,甚至出错,因此,这里更换镜像源,防止下载各种安装包时出错。
2023-11-17 11:12:32 335
原创 利用Albumentations工具包进行图像的数据增强(以yolo数据标注格式为例)
利用Albumentations工具包进行图像的数据增加(以yolo数据标注格式为例)
2023-03-02 22:12:42 3617 5
原创 GIRAFFEDET: A HEAVY-NECK PARADIGM FOROBJECT DETECTION(中文翻译)
ABSTRACT在传统的目标检测框架中,继承自图像识别模型的骨干主体提取深度潜在特征,然后由颈部模块融合这些潜在特征来获取不同尺度的信息。由于目标检测的分辨率远大于图像识别,因此主干的计算代价往往占主导地位。这种重主干设计范式主要是由于将图像识别模型转移到目标检测时的历史遗留问题,而不是目标检测的端到端优化设计。在这项工作中,我们表明,这种范式确实导致次优的目标检测模型。为此,我们提出了一个新的重颈范式,GiraffeDet,一个类似长颈鹿的网络,用于有效的目标检测。GiraffeDet使...
2022-04-18 21:00:58 1790
原创 理解卷积的空间不变性和通道特异性
空间不变性主要是把问题的视野关注于一个channel维度,对一个channel维度上移动的进行卷积操作,其卷积核是不会发生变化的。通道特异性主要是把问题的视野关注于对比两个不同的channel维度,两个channel维度的卷积核是不同的。卷积操作详解:卷积神经网络之卷积计算、作用与思想 - shine-lee - 博客园...
2022-04-07 10:12:08 1813
原创 jetson TX2部署pytorch环境
我遇到了torch和torchvision版本不一致的问题,导致我在jetson TX2上运行yolov5时出错注意点:在英伟达官网上我们可以发现不管是那个版本的torch只支持python3.6,所以,我们在创建虚拟环境时,要指定python版本为3.6conda create --name yoloV5 python=3.6其次,注意torch和torchvision的版本对应的问题例如我使用的是torch1.8.0-cp36 torchvision0.9.0-cp36这里也要注意对
2022-03-28 23:46:00 1731
原创 行程编码(RLE)
行程长度编码(Run-Length Encoding,RLE)压缩算法是Windows系统中使用的一种图像文件压缩方法,基本思想是:将一扫描行中颜色值相同的相邻像素用两个字段表示,第一个字段是一个计数值,用于指定像素重复的次数;第二个字段是具体像素的值,主要通过压缩除掉数据中的冗余字节或字节中的冗余位,从而达到减少文件所占空间的目的。使用RLE压缩方法可以将RRRRRGGBBBBBB压缩为5R2G6B ,而且RLE压缩方法还是无损压缩技术。以二值序列为例:...
2022-03-27 21:52:58 18285 2
原创 YOLOv5——SPPF(bug)
当我使用SPPF替换SPP时,我发现出现了以下报错:RuntimeError: Given groups=1, weight of size [512, 1024, 1, 1], expected input[1, 96, 8, 8] to have 1024 channels, but got 96 channels instead我找了半天也没发现哪里有问题,所以我怀疑是SPPF固有的bug,如果遇到这个问题,请尝试将SPPF模块替换为SPP模块,问题得以解决。[-1, 1...
2022-03-23 20:11:58 4925 1
原创 stem block 理解
Stemblock 结构将输出的尺寸缩减为输入的 1/4,多用于轻量化网络,完成下采样操作,可以用于 YOLOv5 网络模型中原始的卷积下采样操作,减少参数量。class StemBlock(nn.Module): def __init__(self, c1, c2, k=3, s=2, p=None, g=1, act=True): super(StemBlock, self).__init__() self.stem_1 = Conv(c...
2022-03-20 21:48:00 5318
原创 XML格式数据集转TXT(YOLO)
我从网上下载了一个数据集(underwater)它们提供了xml格式的数据,但是我想用yolov5进行训练,所以需要将xml格式转化为txt格式。正常的xml格式的数据集可以参考目标检测中将已有的.xml数据集转换成.txt数据集(附代码,归一化后供YOLO格式使用)_orangezs的博客-CSDN博客但是,我下载的数据集有点不同,它的xml文件中没有size属性,而且还标注了我们不需要的类别这里我参考了下面几个人的博客PyTorch版YOLOv4训练自己的数据集---...
2022-03-20 10:19:00 20521 8
原创 TPH-YOLOv5: (中文翻译)
Abstract无人机捕获场景下的目标检测是一个最近流行的任务。由于无人机总是在不同的高度进行导航,目标尺度变化剧烈,给网络优化带来负担。此外,在高速低空飞行过程中,由于物体密度较大,会产生运动模糊,给物体识别带来很大挑战。针对上述两个问题,我们提出了TPH-YOLOv5。在YOLOv5的基础上,我们增加了一个预测头来检测不同尺度的物体。然后将原预测头替换为变压器预测头(Transformer prediction heads, TPH),探索具有自我注意机制的预测潜力。此外,我们还集成...
2022-03-14 19:14:27 15437 3
原创 YOLOv5尝试修改backbone
本博文记录第一次修改yolov5,只是尝试,不做工程效率的考虑最近尝试修改yolov5的网络结构,在这里记录一下第一步:加入模块代码将模型搭建中所需的模块放入YOLOv5的源码路径models/common.py里,以ShuffleNetV2的InvertedResidual为例:在common.py的顶部加入导入from torch import Tensorfrom typing import Callable, Any, List将InvertedResidual类和
2022-03-11 12:05:51 9530 19
原创 Anaconda虚拟环境下安装CPU版Pytorch
这篇博文主要记录CPU版Pytorch的安装过程step1:下载并安装Anaconda,Anaconda的国内镜像:https://mirrors.tuna.tsinghua.edu.cn/anaconda/archive/这里建议选择较新的Anaconda版本上面的是32位系统,下面的是64位系统(一般选第二个就可以)step2:更新国内源下面的指令都在 Anaconda Prompt 中操作如果不更新国内源可能会导致安装某些包的时候出错pypi | 镜像站使用帮助 |
2022-03-08 09:34:07 1431
原创 Transformer 相关知识
ViT-transformerVision Transformer详解_霹雳吧啦Wz-CSDN博客_wz框架11.1 Vision Transformer(vit)网络详解_哔哩哔哩_bilibilidropout【YOLO v4】Regularizations(正则化): DropOut、DropBlock(最重要)、Spatial DropOut、DropPath、DropConnect_满船清梦压星河HK的博客-CSDN博客_drop path机器学习中归纳偏置机
2022-03-06 23:29:30 2985
原创 torch相关知识汇总
该博文主要记录torch相关知识torch.stack()的官方解释,详解以及例子_xinjieyuan的博客-CSDN博客_torch.stack()torch.cat()函数的官方解释,详解以及例子_xinjieyuan的博客-CSDN博客_torch.catpytorch中where方法介绍_Raywit的博客-CSDN博客_torch wheretorch.where()函数解读_wang xiang的博客-CSDN博客_torch.where()函数...
2022-03-02 12:14:01 943
原创 Numpy相关知识总结
该博文主要记录numpy的相关知识python中数组(numpy.array)的基本操作_fu6543210的博客-CSDN博客_np.arraypython ,numpy 模块中 resize 和 reshape的区别_墨晓白的博客-CSDN博客_numpy resizenumpy 中降维函数ravel()、flatten()、squeeze()、reshape()笔记_大豆虫的博客-CSDN博客_numpy降维...
2022-03-01 22:14:25 372
原创 YOLOv5 中 metrics.py 之 ap_per_class && compute_ap 学习记录
整整花了一天的时间在看,原本准备2小时搞懂(太天真了)参数部分:tp(correct): shape=[25268, 10] bool含义:整个数据集所有图片中所有预测框在每一个iou条件下(0.5~0.95)10个是否是TPold_view:这里的tp中的预测框(每行)是按图片为单位进行存储的(比如说前300行属于第一张图片,300行到500行属于第二张图片)。new_view: 这里利用np.argsort对conf进行排序(...
2022-03-01 15:39:59 4511 8
原创 YOLOv5 anchor 相关问题
【YOLOV5-5.x 源码解读】autoanchor.py_满船清梦压星河HK的博客-CSDN博客YOLOV3中k-means聚类获得anchor boxes过程详解_恩泽君的博客-CSDN博客_yolov3 聚类使用k-means聚类anchors_霹雳吧啦Wz-CSDN博客_anchors聚类...
2022-02-27 17:00:30 369
原创 FRELU理解记录
【论文复现】FReLU Activation(2020)_满船清梦压星河HK的博客-CSDN博客ECCV2020 | FReLU:旷视提出一种新的激活函数,实现像素级空间信息建模https://arxiv.org/pdf/2007.11824.pdf
2022-02-26 17:05:27 397
原创 YOLOV5中NMS的理解和替换(CIOU_NMS)
在YOLOv5源码中,原作者使用的是普通的nms,还有附加可开启的加权nms(merge-NMS),我们可以将nms替换为ciou_nms等其他的变种nms。具体操作如下:Pytorch机器学习(八)—— YOLOV5中NMS非极大值抑制与DIOU-NMS等改进_lzzzzzzm的博客-CSDN博客_yolov5的nms...
2022-02-25 23:09:43 14158
原创 yolov5中strip_optimizer函数的作用
首先,我们可以看到 strip_optimizer函数是在general.py文件中定义,在train.py和detect.py文件中均有调用。定义如下:def strip_optimizer(f='best.pt', s=''): """用在train.py模型训练完后 将optimizer、training_results、updates...从保存的模型文件f中删除 Strip optimizer from 'f' to finalize training, opt...
2022-02-20 20:16:40 2881
原创 np.interp()用法( 一维线性插值 )
该方法是用于取值,建立XY轴的线性关系具体参考numpy.interp()用法_MrLittleDog的博客-CSDN博客_np.interp
2022-02-19 19:30:47 1991
原创 yolo系列原理解析
深入浅出Yolo系列之Yolov5核心基础知识完整讲解 - 知乎深入浅出Yolo系列之Yolov3&Yolov4&Yolov5&Yolox核心基础知识完整讲解 - 知乎深入浅出Yolo系列之Yolox核心基础完整讲解 - 知乎
2022-02-16 23:23:53 1484
原创 YOLOV5中注意力函数的添加
可以参考以下博主的回答yolov5加入CBAM,SE,CA,ECA注意力机制,纯代码(22.2.14又更新)_zqt321的博客-CSDN博客_yolov5注意力机制【YOLOV5-5.x 源码解读】common.py_满船清梦压星河HK的博客-CSDN博客CoordAttention/coordatt.py at main · Andrew-Qibin/CoordAttention · GitHub...
2022-02-16 22:23:37 4883
原创 记录问题yaml文件中含有中文报‘GBK’错误
原本是注释了yaml文件中一些参数问题,可再次运行train.py脚本发现报错UnicodeDecodeError: 'gbk' codec can't decode byte 0xab in position 746: illegal multibyte sequence修改了 encoding='UTF-8'也无济于事把yaml文件中的中文注释删除又得以解决暂时不知道是什么原因,未结。...
2022-02-16 20:17:22 1853 2
原创 self-attention && transformer 详解
我认为只需看李宏毅老师的课程就能对其有不错的认识理解地址:强烈推荐!台大李宏毅自注意力机制和Transformer详解!_哔哩哔哩_bilibili没时间的可以直接看P2:self-attention P4:transformer
2022-02-15 23:31:01 285
转载 nn.ModuleList 与nn.Sequential
详见:详解PyTorch中的ModuleList和Sequential - 知乎pytorch小记:nn.ModuleList和nn.Sequential的用法以及区别_sunnygirl's house-CSDN博客_nn.modulelist和nn.sequential
2022-02-14 19:40:05 274
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人