自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 资源 (1)
  • 问答 (1)
  • 收藏
  • 关注

原创 YOLOv2

大部分的目标检测任务,都是用ImageNet来训练特征提取部分(Backbone),但是,imagenet的图片大小为224*224,因此,对于大分辨率的图片检测时就,模型 的效果就会很差,YOLOv1是使用448*448的图像直接训练模型,但是网络很难很快适应这个大分辨率的图像,YOLOv2怎么做的呢?YOLOv2在每个卷积层后都加入了BN层,BN层既能加快模型的收敛速度,也能起到一定的正则化的效果,起到抑制过拟合的效果,并且不在使用dropout。二、Neck Network。一、Backbone。

2022-10-12 20:42:30 363 1

原创 YOLOv5

先 谢谢

2022-10-12 15:46:32 91

原创 YOLOv1

YOLOv1的详解

2022-10-12 15:12:10 2180

原创 如何理解YOLOv1的训练和预测过程?

我这里说的是我认为的核心部分:一张标注的图片,送入网络中,经过卷积池化操作,提取特征等最后在输出层就会得到7*7*30的张量,这个张量包含的信息是这样的7*7*((4+1)*2+20),7*7是YOLOv1会把送入网络的图片分成7*7的网格,(4+1)*2为,每个网格会预测两个大小不等的框,每个框包含的信息为它的位置信息,和它的置信度大小,20为在coco数据集上每个类别预测的概率。

2022-10-12 10:22:19 1052

目标检测算法-YOLO系列-YOLOV1

该资源为我研究方向,基于机器视觉的轴承表面缺陷检测研究所需的算法总结

2022-07-18

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除