自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 MMDetection环境配置——学习笔记

注意:在MMCV-v2.x中,MMCV full被重命名为MMCV,如果你想在没有CUDA操作的情况下安装MMCV,你可以使用mim install“MMCV-lite>=2.0.0rc1”来安装lite版本。创建环境:conda create --name mmdetection python=3.8 -y #mmdetection为环境名。,选择合适的conda版本,然后复制红色框框的命令,到Anaconda Prompt运行,如下图演示。#“-e”表示以可编辑模式安装项目,

2024-10-18 17:57:18 137

原创 端对端的transformer目标检测——论文总结笔记

假设有两个集合,一个集合是“任务”,另一个集合是“工人”,每个任务由某个工人执行会产生不同的代价,算法的目标是找到一种匹配方式,使得总代价最小。找到矩阵中没有被覆盖的最小元素,将其从所有未覆盖的元素中减去,并加到被两条直线覆盖的元素上。:传统的锚点框(anchor boxes)用于覆盖不同尺寸和长宽比的对象,DETR完全摆脱了锚点框的设计,而是通过解码器中的查询直接预测对象。DETR不仅适用于物体检测任务,还可以扩展到全景分割任务,通过添加简单的分割头,达到了在全景分割中的竞争性表现。

2024-10-18 11:15:39 351

原创 YoLov5进阶——学习笔记

打开VSCode,在终端激活对应的环境并输入以下命令: 下载YOLOv8的代码拿来借鉴,地址如下:https://github.com/ultralytics/ultralytics下载好后解压,打开下图目录,双击打开block1文件:在block.py中找到C2f模块复制,打开YOLOv5的common.py文件,粘贴进去:我们发现C2f中有Bottleneck模块,所以把Bottleneck模块也copy过来,为了避免覆盖之前yolov5的块,我们把copy过来的模块加上了前缀:在yolov5的yolo

2024-10-18 09:56:56 902

原创 Fast R-CNN论文——学习笔记

R-CNN 在处理每个候选区域时,会先将每个区域的特征提取出来,并将其存储在磁盘上,以便后续分类使用。: 由于 Fast R-CNN 在训练时直接从共享的特征图中提取 RoI 特征,这使得整个网络可以端到端训练,不再需要像 R-CNN 那样先训练一个独立的候选区域生成器(例如 Selective Search),然后再进行特征提取和分类。Fast R-CNN 通过一个单阶段训练过程,结合了分类和边界框回归的多任务损失函数,从而简化了训练流程,不再需要像 R-CNN 那样分开进行不同阶段的训练。

2024-10-15 21:55:47 530

原创 YOLOv5模型训练常见问题 & YOLOv5 Pyside6可视化界面——学习笔记

手动下载,放到对应的位置,windows下的目录是:~、AppData/Roaming/Ultralytics。

2024-10-09 20:52:16 726

原创 YOLOv5模型检测——学习笔记

在终端输入以下代码:python detect.py --weights yolov5s.pt --source data/images/bus.jpg。在终端输入以下代码:python detect.py --weights yolov5s.pt --source screen。检测的目标,可以是单张图片,文件夹、屏幕或者是摄像头等。从时间上看,相比于yolov5s.pt耗费时间更长。IOU阈值,越低框越少,越高框越多。置信度阈值,越低框越多,越高框越少。

2024-10-07 22:14:53 831

原创 YOLOv5环境安装及问题解决

在Anaconda Prompt (minconda) 命令框中找到yolov5-7.0的文件夹。对这个错误,我们要找到该yolov5-7.0环境所在的地方,然后将其中一个 libiomp5md.下载完后双击打开文件夹,找到requirements文件并打开。还是遇到下面的情况的话,可能是由于环境中存在多个 libiomp5md.再检测:python detect.py。再检测:python detect.py。到下图呢,那我们的环境就安装完成了。重命名一下,就OK了。再进行检测就成功啦!

2024-10-07 12:19:41 669

原创 swin transformer及其进化过程——学习笔记

swin transformer 是一种基于 transformer 架构的计算机视觉模型,旨在解决传统 transformer 应用在图像处理时存在的计算成本高和效率低的问题。

2024-10-05 17:49:52 697

原创 YoLov1目标检测——知识点笔记

与R-CNN复杂的多步骤处理(区域提议、特征提取、分类、后处理等)相比,YoLo V1采用了单一的卷积神经网络架构,不需要单独训练不同的模块,这使得YoLo V1更容易优化,并实现了端到端的检测系统。输入448×448的rgb图片,先经过24层卷积层提取图像特征,再经过2层全连接层回归得到7×7×30的tensor,相当于30个通道的7×7的特征图。MultiBox 的检测方式仍依赖于后续的分类步骤,这增加了系统的复杂性,并且由于缺乏全局信息,难以精确检测复杂背景下的目标。

2024-10-04 22:13:17 673

原创 YOLOv1~YOLOv3理论学习——知识笔记

(1)将图片分割成S×S的网格(grid cell),如果某个object的中心落在这个网格中,则这个网格就负责预测这个object。(2)每个网格要预测B个bounding box(这里B用的2),每个bounding box又包含了四个位置信息:中心点坐标(x,y)宽度和高度(w,h)以及对应的置信度(20个)。(3) 置信度的计算:根据原论文可以理解为预测目标和真实目标之间的交并比。

2024-10-04 22:13:11 681

原创 Transformer架构详解,一文看懂不是梦!!!

在机器翻译应用中,它输入一种语言,通过一个编码组件和一个解码组件后输出对应的另一种语言。输入嵌入(Input Embedding):输入序列中的每个元素(如单词、图像块等)会先转换为向量表示,通常通过嵌入层进行。位置编码(Positional Encoding):由于 Transformer 不能像 RNN 那样通过顺序自然感知位置信息,需要添加额外的位置信息。位置编码可以使用正弦和余弦函数,帮助模型感知序列中每个元素的顺序。自注意力层(Self-Attention Layer)

2024-09-24 21:04:15 1209 1

原创 创建虚拟环境及Pytorch安装(保姆级教程!!!)

选择合适的conda版本,然后复制红色框框的命令,到Anaconda Prompt运行,如下图演示。python=3.8 # -n是name的意思。ycharm,应用新创建的环境。

2024-09-24 21:03:58 256

原创 深度学习基础

损失函数或代价函数是将随机事件或其有关随机变量的取值映射为非负实数以表示该随机事件的“风险”或“损失”的函数。

2024-09-12 20:26:27 311

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除