物体检测
文章平均质量分 59
云端一散仙
主要在做图像,点云方向,欢迎讨论~
展开
-
KalmanFilter卡尔曼滤波
xkAxk−1Buk−1wk−1其中n维向量xk为k时刻的系统状态变量,n维向量xk−1是k-1时刻的系统状态变量。A是状态转移矩阵或者过程增益矩阵,是n×n阶方阵,它将k-1时刻状态和当前的k时刻状态联系起来。B是可选的控制输入u∈Rl的增益,在大多数实际情况下并没有控制增益,所以Buk−1这一项很愉快的变成零了。wk−1。原创 2023-08-28 17:20:32 · 78 阅读 · 0 评论 -
yolov5笔记
yaml文件解析yolov5使用yaml文件,通过./models/yolo.py解析nc:类别数量depth_multiple:控制子模块数量,模型的深度width_multiple:控制卷积核数量假如yolov5设置为训练命令:cfg 设置网络结构的配置文件(如果有.pt,可以忽略)python train.py --img 640 --batch 32 --epochs 81 --data data/head_tail.yaml --weights yolov5n.pt --de原创 2022-05-20 10:18:57 · 752 阅读 · 0 评论 -
基于EfficientDet训练自己的数据集
github:Zylo使用的torch和torchvision版本,torch和torchvision的版本要对应,cuda版本一致数据集修改train.py中的原创 2021-05-19 13:31:29 · 746 阅读 · 1 评论 -
基于mmdetection训练Swin Transformer Object Detection
环境搭建docker找了一个torch版本为1.5.1+cu101的docker环境,然后安装mmdetection环境pip install mmcv-fullgit clone https://github.com/SwinTransformer/Swin-Transformer-Object-Detectioncd Swin-Transformer-Object-Detection-masterpip install -r requirements/build.txtpip instal原创 2021-04-26 14:55:12 · 9760 阅读 · 32 评论 -
YOLOv3小结(下)
上次看的源码没有loss的部分,又找了一个别的pytorch版本的yolov3ultralytics/yolov3# Forwardpred = model(imgs)# Lossloss, loss_items = compute_loss(pred, targets, model)正向传播的输出:一个列表中含有3个列表,分别对应3个yolo_head,假设batch_size=16,class=9,img_size=512,那么这3个列表的shape分别为:torch.Size([1原创 2020-09-27 15:35:50 · 349 阅读 · 0 评论 -
IoU Loss小结: Giou,Diou,Ciou
Giou:Giou论文Diou:Diou论文你真的读懂yolo了吗?YOLO V3 深度解析 (下)原创 2020-09-19 17:30:40 · 1252 阅读 · 0 评论 -
YOLOv3小结(上)
最近把YOLO系列的论文,还有YOLOv3的源码又回顾了一下,感觉有一些是之前没注意到的,稍微总结下最近的工作。V3的Pytorch源码,我看的是这个版本:ayooshkathuria/YOLO_v3_tutorial_from_scratch这个是关于源码的一些解释说明:How to implement a YOLO (v3) object detector from scratch in PyTorch解释说明中文版:上半部分下半部分v3的论文相比较与v1,v2的论文,不去看原创 2020-09-11 15:02:55 · 383 阅读 · 0 评论 -
Paper Reading-YOLOv4
paper:YOLOv4github:Darknet个人感觉,这篇论文更像是一种好多方法的总结之类的论文,最近公司要做一个分享,做一下阅读笔记标题传统的物体检测大概是由以下几个部分组成的(借用作者的原话):对于YOLOv4:Backbone的作用是提取图像的特征,作者比较了CSPResNext50和CSPDarknet53后,选择了后者,原话是:our numerous studies demonstrate that the CSPResNext50 is considerably原创 2020-08-27 18:38:17 · 461 阅读 · 0 评论 -
yolov4调整网络结构
最近在用Yolov4跑车辆,行人等9种类别的检测,尝试修改网络结构,记录下遇到的一些问题…结合Netron,更清晰解析网络结构:def parse_model_cfg(path): # Parses the yolo-v3 layer configuration file and returns module definitions file = open(path, 'r') lines = file.read().split('\n') lines = [x f原创 2020-08-19 14:21:01 · 2489 阅读 · 1 评论 -
NMS-IOU
non_max_suppression:自己写的差点意思,记录下别人的def bbox_iou(box1, box2, x1y1x2y2=True, GIoU=False): # Returns the IoU of box1 to box2. box1 is 4, box2 is nx4 box2 = box2.t() # Get the coordinates of bounding boxes if x1y1x2y2: # x1, y1, x2,.原创 2020-08-18 20:02:49 · 324 阅读 · 0 评论 -
YOLOv4的cfg参数及训练
cfg参数net层[net]batch=96 # 每次iteration训练的时候,输入的图片数量subdivisions=48 # 将每一次的batch数量,分成subdivision对应数字的份数,一份一份的跑完后,在一起打包算作完成一次iterationwidth=512 # width=height,大小为32的倍数momentum=0.9 # 动量,影响梯度下降到最优的速度,一般默认0.9decay=0.0005 # 权重衰减正则系数,防止过拟合angle=0 # 旋转角度,生成更原创 2020-07-30 16:35:56 · 13266 阅读 · 4 评论 -
感受野(receptive field)
之前在做物体检测的时候,对这个问题没有弄清楚,记录下最近关于这个问题的理解。问题:浅层特征图检测小目标,深层特征图检测大目标?浅层特征图不检测大目标是因为感受野不够,所谓感受野,就是用来表示网络内部的不同位置的神经元对原图像的感受范围的大小。只有当感受野大于物体,能够将物体包含的时候,才能正确检测。在深层特征图,感受野比较大,可以更好的看清一个物体,用于检测大目标准确度更高。浅层特征图感受野小,对于大物体不能够获取全部信息,比如检测一只动物,却只能检测到一条腿,通过腿去判断动物的类别,就可能会产生误判原创 2020-07-10 18:50:58 · 1089 阅读 · 0 评论 -
关于物体检测的小结
物体检测算法的思想可以分为两种:1.one-stage:以YOLO,SSD为例的算法。对输入的图像通过CNN提取特征,直接回归物体的类别概率和位置坐标值。2.two-stage:以R-CNN,Fast R-CNN, Faster R-CNN为例的算法,先生成候选框(Region Proposals),使用启发式方法(selective search)或者CNN网络(RPN)产生候选框,然后再对每个候选框进行分类。YOLOv1图像的输入大小为448x448,然后将图片分为SxS个网格,对于每个单元格原创 2020-07-06 18:49:45 · 474 阅读 · 0 评论