![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
CV
文章平均质量分 60
Jackie_Wang11
while(days<=lifetime) {
++learning;
}
展开
-
Stable Diffusion Web UI + Anaconda环境 + 本地Windows系统部署
这里博主机器的cuda 是11.1版本,但按照之前的经验,在ananconda中安装cuda11.3是可以向下兼容的,原因其实很简单,anaconda可以做到环境隔离,即在创建好的环境中进行安装,不会影响其他程序或者模型的使用。原创 2023-04-15 20:26:49 · 3861 阅读 · 2 评论 -
图像特征提取SIFT/SURF算法
1.1SIFT原理:尺度不变特征转换即SIFT (Scale-invariant feature transform) 它用来侦测与描述影像中的局部性特征,它在空间尺度中寻找极值点,并提取出其位置、尺度、旋转不变量,此算法由 David Lowe在1999年所发表,2004年完善总结。应用范围包含物体辨识、机器人地图感知与导航、影像缝合、3D模型建立、手势辨识、影像追踪和动作比对等领域。SIFT算法的实质是在不同的尺度空间上查找关键点(特征点),并计算出关键点的方向。SIFT所查找到的关键点是一些十分突原创 2022-05-18 15:22:08 · 2055 阅读 · 0 评论 -
vs2019 opencv环境配置
首先下载opencv这个不多介绍了,之后再vs中创建一个新项目之后创建一个main.cppRelease+x64版本打开自己下载的opencv文件,里面有bulid和sources两个文件夹这两个文件夹的作用:之后开始配置opencv,点击属性注意查看配置和平台是不是和之前选好的一致配置包含目录配置库目录进入连接器->输入->附加依赖项选择Release版本之后确定返回,代码测试:# include <opencv2/opencv.hpp&g原创 2022-05-15 14:46:48 · 582 阅读 · 0 评论 -
yolov5 显示每个类别的mAP以及如何继续训练
1、训练时显示每个类别的mAPverbose设置成True即可2、继续训练将’–resume’中的default =True设置为Truedefault = ''填入想要继续训练的生成的exp中的last.pt的路径或者使用命令行python train.py --cfg yolov5l,yaml --batch-size 64 --weights './runs/train/exp4/weight/last.pt' ...原创 2022-05-02 20:06:21 · 6885 阅读 · 5 评论 -
Pytorch中的repeat()函数
pytorch中的repeat()函数可以对张量进行复制。当参数只有两个时,第一个参数表示的是复制后的行数,第二个参数表示复制后的列数。当参数有三个时,第一个参数表示的是复制后的通道数,第二个参数表示的是复制后的行数,第三个参数表示复制后的列数。接下来我们举一个例子来直观理解一下:>>> x = torch.tensor([6,7,8])>>> x.repeat(4,2)tensor([[6, 7, 8, 6, 7, 8], [6, 7, 8,原创 2022-05-01 09:42:36 · 1985 阅读 · 0 评论 -
使用yolov5训练PASCAL VOC2012数据集以及遇到的坑
首先是pascal voc标签数据格式转yolo标签数据格式,这两种有什么区别,欢迎翻看之前的博客 PASCAL VOC格式的标注格式和YOLO格式的txt标记文件import xml.etree.ElementTree as ETimport pickleimport osfrom os import listdir, getcwdfrom os.path import join# 要生成的文件夹sets = [('2012', 'train'), ('2012', 'val')]#原创 2022-04-29 23:10:00 · 3570 阅读 · 0 评论 -
mmdetection安装教程
简要说一下nndetection的安装步骤吧:github:https://github.com/open-mmlab/mmdetection1、首先看一下自己的cuda版本是多少,根据自己的cuda版本安装对应的pytorch版本由于我是最新版本,所以直接进行pytorch官网安装最新版本就好了2、之后创建并激活环境conda环境conda create -n mmdetection python=3.7conda activate mmdetection3、根据环境安装mmcv这里原创 2022-04-29 09:40:00 · 1610 阅读 · 0 评论 -
上采样之最近邻插值、双线性插值
上采样之最近邻插值、双线性插值一、最近邻插值二、双线性插值一、最近邻插值设i+u, j+v(i, j为正整数, u, v为大于零小于1的小数,下同)为待求象素坐标,则待求象素灰度的值 f(i+u, j+v)。如果(i+u, j+v)落在A区,即u<0.5, v<0.5,则将左上角象素的灰度值赋给待求象素,同理,落在B区则赋予右上角的象素灰度值,落在C区则赋予左下角象素的灰度值,落在D区则赋予右下角象素的灰度值。最邻近元法计算量较小,但可能会造成插值生成的图像灰度上的不连续,在灰度变化原创 2022-04-04 15:34:40 · 1626 阅读 · 0 评论 -
Yolov5 损失函数
Yolov5 损失函数正负样本匹配策略正样本个数的增加策略损失函数正负样本匹配策略本文的正负样本指的都是预测框而不是groundtruth框。正负样本是根据groundtruth框和anchor的匹配情况来确定的。yolov3/4采用的都是基于IOU的匹配策略,而 Yolov5采用的是基于宽高比例的匹配策略。具体而言,对每一个groundtruth框,分别计算它与9种anchor的宽与宽的比值、高与高的比值,在宽比值、高比值这2个比值中,取最极端的一个比值,作为groundtruth框和anchor原创 2022-04-01 22:31:39 · 8112 阅读 · 4 评论 -
PASCAL VOC格式的标注格式和YOLO格式的txt标记文件
YOLO格式的txt文件中包含以下内容:其中x,y,w,h都做了归一化而PASCAL VOC标注格式存储的是图片的左上角坐标(Xmin,Ymin),以及右下角坐标(Xmax,Ymax)PASCAL VOC格式转化成YOLO格式如下图所示原创 2022-03-06 20:13:57 · 3414 阅读 · 0 评论 -
Deepsort
原创 2022-03-02 21:11:27 · 128 阅读 · 0 评论 -
SORT算法- SIMPLE ONLINE AND REALTIME TRACKING
SORT首先我们需要明确目标跟踪和目标检测是两件不同的事物体跟踪有几个主要任务以及它们对应的解决方案SORT本篇文章参考了如下文章:https://blog.csdn.net/didiaopao/article/details/120272947https://blog.csdn.net/HaoBBNuanMM/article/details/85555547https://azusa.blog.csdn.net/article/details/106009021首先我们需要明确目标跟踪和目标检测原创 2022-03-02 16:42:22 · 758 阅读 · 0 评论 -
IOULoss、GIOULoss、DIOULoss、CIOULoss的区别
原创 2022-03-01 19:24:40 · 405 阅读 · 0 评论 -
数据增强之Mosaic数据增强的优点、Mixup,Cutout,CutMix的区别
一、Mosaic data augmentationMosaic数据增强方法是YOLOV4论文中提出来的,主要思想是将四张图片进行随机裁剪,再拼接到一张图上作为训练数据。这样做有以下几个优点:1、增加了数据的多样性,丰富了图片的背景。2、增加了目标个数3、四张图片拼接在一起变相地提高了batch_size,在进行BN操作时的时候可以更好的统计均值和方差二、Mixup,Cutout,CutMix的区别Mixup: 将随机的两张样本按比例混合,分类的结果按比例分配;Cutout: 随机的将样本原创 2022-03-01 16:33:46 · 10033 阅读 · 0 评论 -
Opencv库 函数
1、vc = cv2.VideoCapture(0)VideoCapture()中参数是0,表示打开笔记本的内置摄像头,参数是视频文件路径则打开视频,如vc =cv2.VideoCapture("…/test.mp4")2、ret,frame = vc.read()vc.read()按帧读取视频,ret,frame是获cap.read()方法的两个返回值。其中ret是布尔值,如果读取帧是正确的则返回True,如果文件读取到结尾,它的返回值就为False。frame就是每一帧的图像,是个三维矩阵。原创 2022-02-21 19:54:12 · 1077 阅读 · 0 评论 -
分组卷积与DW卷积、Residuals与Inverted Residuals、bottleneck与linearbottleneck
分组卷积(Group Convolution)分组卷积在ResNext中用到了首先必须明确:常规卷积(Convolution)的参数量是:K*K*C_in*nK是卷积核大小,C_in是input的channel数,n是卷积核个数(output的channel数)分组卷积的参数量是:K*K*C_in*n*1/gK是卷积核大小,C_in是input的channel数,n是卷积核个数(output的channel数),g是分组数DW(Depthwise Separable Conv)+原创 2022-02-13 10:52:53 · 2158 阅读 · 0 评论 -
VGGNet 与 GoogLeNet
VGGNetVGGNet 是由牛津大学著名研究组(Visual Geometry Group)提出网络亮点:通过堆叠多个3*3的卷积核来代替大尺度卷积核(减少所需参数)论文中提到,可以通过堆叠两个3x3的卷积核代替5x5的卷积核,堆叠三个3x3的卷积核代替7x7的卷积核,因为都拥有相同的感受野经典的VGG16网络结构VGG16经常作为一些网络的预训练模型或者目标检测网络的backbone,十分重要一般采用D结构,也就是VGG16,为什么叫VGG16呢,因为这个网络中的卷积层+全连接层一共原创 2022-02-10 09:18:36 · 3191 阅读 · 0 评论 -
目标检测中的非极大值抑制(NMS)
非极大值抑制(Non-Maximum Suppersion, NMS)在目标检测过程中,在同一目标位置上回产生大量的候选框(proposal),这些候选框相互之间会存在重叠现象,此时我们需要利用非极大值抑制来找到最佳的目标边界框,并且消除冗余的边界框。IOU(交并比)IOU(Intersection-Over-Union): 两个边界框的交集部分除以它们的并集部分,数值越大代表两个边界框的重合部分越多非极大值抑制NMS算法流程前提:目标边界框列表及其对应的置信度得分列表,设定IOU阈值,此阈值用原创 2022-02-09 11:47:45 · 1539 阅读 · 0 评论 -
目标检测中特征图与感受野的关系
感受野神经网络中感受野:神经网络每一层输出的特征图上的像素点在原始图像上映射区域的大小。原始图像是指网络输入图像,是经过预处理后的图像。感受野公式F(i) = (F(i+1)-1)*Stride +Ksize # F(i)代表第i层感受野# F(i+1)代表第i+1层感受野# Stride 代表第i层步距# Ksize代表卷积核或者池化核尺寸如上图所示: 第三层的感受野F(3) = 1,对应第二层的感受野为F(2) = (F(3)-1)*stride + ksize =(1-1)*2原创 2022-02-09 11:06:08 · 3097 阅读 · 0 评论 -
CV方向经典及前沿文献链接(持续更新)
图像分类(Classification)LeNet http://yann.lecun.com/exdb/lenet/index.htmlAlexNet http://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdfVGGNet https://arxiv.org/abs/1409.1556GoogLeNet, Inceptionv1(Going deeper原创 2022-01-20 13:13:34 · 1850 阅读 · 0 评论