- 博客(13)
- 收藏
- 关注
原创 MMDetection环境配置——学习笔记
注意:在MMCV-v2.x中,MMCV full被重命名为MMCV,如果你想在没有CUDA操作的情况下安装MMCV,你可以使用mim install“MMCV-lite>=2.0.0rc1”来安装lite版本。创建环境:conda create --name mmdetection python=3.8 -y #mmdetection为环境名。,选择合适的conda版本,然后复制红色框框的命令,到Anaconda Prompt运行,如下图演示。#“-e”表示以可编辑模式安装项目,
2024-10-18 17:57:18 137
原创 端对端的transformer目标检测——论文总结笔记
假设有两个集合,一个集合是“任务”,另一个集合是“工人”,每个任务由某个工人执行会产生不同的代价,算法的目标是找到一种匹配方式,使得总代价最小。找到矩阵中没有被覆盖的最小元素,将其从所有未覆盖的元素中减去,并加到被两条直线覆盖的元素上。:传统的锚点框(anchor boxes)用于覆盖不同尺寸和长宽比的对象,DETR完全摆脱了锚点框的设计,而是通过解码器中的查询直接预测对象。DETR不仅适用于物体检测任务,还可以扩展到全景分割任务,通过添加简单的分割头,达到了在全景分割中的竞争性表现。
2024-10-18 11:15:39 351
原创 YoLov5进阶——学习笔记
打开VSCode,在终端激活对应的环境并输入以下命令: 下载YOLOv8的代码拿来借鉴,地址如下:https://github.com/ultralytics/ultralytics下载好后解压,打开下图目录,双击打开block1文件:在block.py中找到C2f模块复制,打开YOLOv5的common.py文件,粘贴进去:我们发现C2f中有Bottleneck模块,所以把Bottleneck模块也copy过来,为了避免覆盖之前yolov5的块,我们把copy过来的模块加上了前缀:在yolov5的yolo
2024-10-18 09:56:56 902
原创 Fast R-CNN论文——学习笔记
R-CNN 在处理每个候选区域时,会先将每个区域的特征提取出来,并将其存储在磁盘上,以便后续分类使用。: 由于 Fast R-CNN 在训练时直接从共享的特征图中提取 RoI 特征,这使得整个网络可以端到端训练,不再需要像 R-CNN 那样先训练一个独立的候选区域生成器(例如 Selective Search),然后再进行特征提取和分类。Fast R-CNN 通过一个单阶段训练过程,结合了分类和边界框回归的多任务损失函数,从而简化了训练流程,不再需要像 R-CNN 那样分开进行不同阶段的训练。
2024-10-15 21:55:47 530
原创 YOLOv5模型训练常见问题 & YOLOv5 Pyside6可视化界面——学习笔记
手动下载,放到对应的位置,windows下的目录是:~、AppData/Roaming/Ultralytics。
2024-10-09 20:52:16 726
原创 YOLOv5模型检测——学习笔记
在终端输入以下代码:python detect.py --weights yolov5s.pt --source data/images/bus.jpg。在终端输入以下代码:python detect.py --weights yolov5s.pt --source screen。检测的目标,可以是单张图片,文件夹、屏幕或者是摄像头等。从时间上看,相比于yolov5s.pt耗费时间更长。IOU阈值,越低框越少,越高框越多。置信度阈值,越低框越多,越高框越少。
2024-10-07 22:14:53 831
原创 YOLOv5环境安装及问题解决
在Anaconda Prompt (minconda) 命令框中找到yolov5-7.0的文件夹。对这个错误,我们要找到该yolov5-7.0环境所在的地方,然后将其中一个 libiomp5md.下载完后双击打开文件夹,找到requirements文件并打开。还是遇到下面的情况的话,可能是由于环境中存在多个 libiomp5md.再检测:python detect.py。再检测:python detect.py。到下图呢,那我们的环境就安装完成了。重命名一下,就OK了。再进行检测就成功啦!
2024-10-07 12:19:41 669
原创 swin transformer及其进化过程——学习笔记
swin transformer 是一种基于 transformer 架构的计算机视觉模型,旨在解决传统 transformer 应用在图像处理时存在的计算成本高和效率低的问题。
2024-10-05 17:49:52 697
原创 YoLov1目标检测——知识点笔记
与R-CNN复杂的多步骤处理(区域提议、特征提取、分类、后处理等)相比,YoLo V1采用了单一的卷积神经网络架构,不需要单独训练不同的模块,这使得YoLo V1更容易优化,并实现了端到端的检测系统。输入448×448的rgb图片,先经过24层卷积层提取图像特征,再经过2层全连接层回归得到7×7×30的tensor,相当于30个通道的7×7的特征图。MultiBox 的检测方式仍依赖于后续的分类步骤,这增加了系统的复杂性,并且由于缺乏全局信息,难以精确检测复杂背景下的目标。
2024-10-04 22:13:17 673
原创 YOLOv1~YOLOv3理论学习——知识笔记
(1)将图片分割成S×S的网格(grid cell),如果某个object的中心落在这个网格中,则这个网格就负责预测这个object。(2)每个网格要预测B个bounding box(这里B用的2),每个bounding box又包含了四个位置信息:中心点坐标(x,y)宽度和高度(w,h)以及对应的置信度(20个)。(3) 置信度的计算:根据原论文可以理解为预测目标和真实目标之间的交并比。
2024-10-04 22:13:11 681
原创 Transformer架构详解,一文看懂不是梦!!!
在机器翻译应用中,它输入一种语言,通过一个编码组件和一个解码组件后输出对应的另一种语言。输入嵌入(Input Embedding):输入序列中的每个元素(如单词、图像块等)会先转换为向量表示,通常通过嵌入层进行。位置编码(Positional Encoding):由于 Transformer 不能像 RNN 那样通过顺序自然感知位置信息,需要添加额外的位置信息。位置编码可以使用正弦和余弦函数,帮助模型感知序列中每个元素的顺序。自注意力层(Self-Attention Layer)
2024-09-24 21:04:15 1209 1
原创 创建虚拟环境及Pytorch安装(保姆级教程!!!)
选择合适的conda版本,然后复制红色框框的命令,到Anaconda Prompt运行,如下图演示。python=3.8 # -n是name的意思。ycharm,应用新创建的环境。
2024-09-24 21:03:58 256
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人