目标检测--小细节问题
文章平均质量分 69
进我的收藏吃灰吧~~
热爱AI,热爱CV
展开
-
PyTorch简易安装方法(100%成功)
一般我们习惯用,同时使用清华源用来加速,这种方法安装99%的库都没啥大问题,但是有时候安装pytorch的时候就会发现问题。笔者反正每次用该方法安装torch总会遇到刚开始下载速度很快,但是下载到快一半的时候下载速度就会极具下降,所以笔者推荐一个简易安装的方法,就是直接用wheel文件来安装。原创 2023-01-07 11:36:19 · 2148 阅读 · 1 评论 -
YOLO系列 -- txt2xml脚本
YOLO系列 -- txt2xml脚本原创 2022-09-21 14:03:30 · 948 阅读 · 0 评论 -
目标检测 -- 基于训练好的YOLO深度学习网络模型实现自动辅助标注
在实际工程中,我们一般会先用少量的数据集进行人工标注,然后训练一个简单的深度学习网络模型,然后基于该网络模型进行预测,对剩余大量测试图片进行初步标注,然后基于机器标注之后的结果进行人工微调标注框,这样即省时又省力。这篇blog主要就讲讲基于训练好的YOLO v5模型实现自动辅助标注。...原创 2022-07-08 10:56:01 · 2231 阅读 · 0 评论 -
上采样、反卷积、上池化的区别
上采样、反卷积、上池化的区别最近,工作中遇到了一个小问题,就是pytorch转onnx转caffe转wk(海思相机NNIE支持的深度学习权重文件格式)的时候,最终输出的Tensor的值有些许差别,后来找到了原因:pytorch项目中使用的upsample中mode选择的是"bilinear",但是onnx2caffemodel的时候默认使用是的"nearest",最终就会导致二者输入Tensor的余弦相似度并不是99.9999%。所以,特地把上采样这一块最容易忽略的知识点领出来单独说说,以下内容要是有说的原创 2022-03-28 16:14:15 · 2786 阅读 · 1 评论 -
Tensorflow与cuda版本关系(附加多个cuda版本安装)
Tensorflow与cuda版本关系(附加多个cuda版本安装)多说一句如果,在网上down的代码用的tf的版本与你本机cuda不一致的话,可以在本机安装多个cuda版本,到时候再根据你自己的项目来选择使用哪个版本的cuda(就我本机win10为栗子)1.安装cuda,这一步在网上太多教程,随便找个就行(cuda安装教程(windows))2.一般来说,如果cuda默认安装,路径应该与我上面贴出来的图中的路径一致:C:\Program Files\NVIDIA GPU Computing To原创 2022-02-18 11:05:53 · 14030 阅读 · 0 评论 -
目标检测 --- Depthwise Convolution(深度可分离卷积)原理与思考
目标检测 — Depthwise Convolution(深度可分离卷积)原理与思考最近在研究mobilenet,其中有一层网络结构–Depthwise Convolution(深度可分离卷积),然后就拎出来仔细研究下~参考:https://cloud.tencent.com/developer/article/1453992https://www.zhihu.com/question/265434464一、算法原理1、先说一下常规的卷积操作假设输入的feature map的shape为(原创 2021-11-29 16:44:18 · 7454 阅读 · 3 评论 -
YOLOV4 -- SE注意力机制
YOLOV4 – SE注意力机制在YOLOV4与YOLOV3的区别主要介绍了V3和V4之间的区别,但是仔细研究代码Tensorflow2.0—YOLO V4-tiny网络原理及代码解析(一)- 特征提取网络会发现其实在V4中还多出一个trick,那就是注意力机制!一、概念YOLOv4中引入注意力机制,就是希望网络能够自动学出来图片需要注意的地方。比如人眼在看一幅画的时候,不会将注意力平等地分配给画中的所有像素,而是将更多注意力分配给人们关注的地方。从实现的角度来讲,注意力机制就是通过神经网络的操作生成原创 2021-10-13 10:44:42 · 5234 阅读 · 9 评论 -
SSD针对小物体检测效果不好的现象的思考
SSD针对小物体检测效果不好的现象的思考最近在用ssd-caffe进行物体检测,但是在使用的过程中,发现ssd对小物体的检测效果很不好。阅读了为什么SSD(Single Shot MultiBox Detector)对小目标的检测效果不好?这篇blog,感觉还是体会很深,所以就该blog进行以下探讨~~~~一、 问题的出现首先,为什么会出现SSD针对小物体检测效果不好的现象?答:SSD-CAFFE网络框架采用的是VGG16作为backbone,而ssd采样了conv4_3,fc7…conv9_2原创 2021-10-09 16:57:49 · 822 阅读 · 0 评论 -
caffe中的iteration,batch_size, epochs
caffe中的iteration,batch_size, epochs理解举个例子吧~比如现在训练集一共是60000张图片1.batch_size:该值是一个超参数,意味着用户希望模型一次能训练多少张图片2.iteration:该值也是一个超参数,一般在caffe中的solver.prototxt设置,表示用户要进行多少次的训练,假设batch_size设置为100张,iteration设置为1w轮,那么就表示模型一共要将10w*100张图片进行训练,由于超过总图片数量,那么就会进行多次循环训练。原创 2021-09-09 13:55:59 · 175 阅读 · 1 评论 -
目标检测---CIOU原理及代码实现
目标检测—CIOU原理及代码实现最近刚写完一篇YOLO V4-tiny的blog,其中Tensorflow2.0—YOLO V4-tiny网络原理及代码解析(三)- 损失函数的构建涉及到了CIOU。所以特地单独领出来写一篇blog记录一下。在YOLO V3中,对于位置的损失函数,使用的还是普通的smooth-l1损失函数,但是到了YOLO V4中,关于位置的损失函数已经变成CIOU了。一、原理,公式关于它的原理,在YOLOV4与YOLOV3的区别中已经有了大致的介绍。二、优点相比于IOU的优点原创 2021-03-03 14:23:53 · 16278 阅读 · 4 评论 -
YOLOV4与YOLOV3的区别
YOLOV4与YOLOV3的区别20年的11月份的时候,正式开始接触v4。时间过去了小半年了,最近突然忘记了v4里面的所谓那些tricks,所以特地做一篇blog(怕过段时间又忘记了~)。首先,先大概的说下二者之间的差别:1.特征提取网络的不同2.激活函数的不同3.loss的不同4.数据处理的不同5.学习率的不同参考:https://blog.csdn.net/weixin_44791964/article/details/106533581https://blog.csdn.net/原创 2021-01-29 11:02:28 · 13788 阅读 · 1 评论 -
闲聊!谈谈目标检测中对坐标进行预测的相关问题~
闲聊!谈谈目标检测中对坐标进行预测的相关问题~今天,在刷zh的时候,偶然看到了一篇blog,直接上图~https://www.zhihu.com/question/304307091?sort=created(我省略了作者的信息了~若侵权,请联系我删除)一、问题刷到这条blog,我很高兴!因为在我deep learning的学习过程中,也一直有这样的问题。我一眼就能看懂作者的意思,他的想法就是:为什么我喂进了一张待预测的图片到训练好的网络中,网络输出的就是最终的预测结果。就比如说吧,现在是y原创 2021-01-27 11:49:02 · 1511 阅读 · 0 评论 -
Tensorflow---利用Tensorflow对图像进行处理
Tensorflow—利用Tensorflow对图像进行处理读取图像数据import numpy as npimport matplotlib.pyplot as pltimport tensorflow as tfdef show_image(image): shape = np.shape(image) if len(shape) == 3 and shape[2] == 1: # 黑白图像 plt.imshow(image[:, :, 0],原创 2020-12-18 18:51:10 · 815 阅读 · 3 评论 -
Tensorflow---训练过程中学习率(learning_rate)的设定
Tensorflow—训练过程中学习率(learning_rate)的设定在深度学习中,如果训练想要训练,那么必须就要有学习率~它决定着学习参数更新的快慢。如下:上图是w参数的更新公式,其中α就是学习率,α过大或过小,都会导致参数更新的不够好,模型可能会陷入局部最优解或者是无法收敛等情况。一、学习率的类型上图列举了我们常用的5种学习率设置的方法~1.固定学习率optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.0001)原创 2020-12-18 16:20:35 · 11810 阅读 · 1 评论 -
目标检测---批归一化(BN)原理与细节详解
目标检测—Batch Normalization Layer(BN)批归一化问:为什么会出现BN这种操作?答:假设我们现在有四个样本,每个样本有四个特征,每一个神经元可以代表一个特征(这句话我是在网上找到的,感觉有点道理,但是我又找不出来哪有道理~~),这些数据作为输入传进BP网络(假设就是为简单的感知器模型)中,可以得到一下损失函数,通过这个损失函数可以很明显的看到,如果随着w的更新,当w4的取值大小发生一点点的改变,那么整个loss就会发生相应的很大的变换,这是因为第四个特征对于该模型来说权重太大原创 2020-12-10 17:16:10 · 3524 阅读 · 4 评论 -
目标检测---神经网络的参数更新过程(正向与反向)
神经网络的更新过程(正向与反向)在tf代码框架中,肯定少不了一个loss和优化器的构建~那么到底是如何进行更新参数的呢?这篇blog举个实例来说明其中的更新过程~~思路神经网络的一种求解W的算法,分为信号“正向传播(FP)”求损失,“反向传播(BP)”回传误差;根据误差值修改每层的权重,继续迭代,直到参数更新到固定值的时候,预测值与真实值的误差最小。下面随便举一个栗子来说明~假设有一个样本数据,它有两个特征(L1,L2),同时,假设每个样本有两个输出(O1,O2),w和b初始值随机给定。原创 2020-12-09 09:41:40 · 2034 阅读 · 0 评论 -
目标检测---NMS代码实现(python)
目标检测之NMS代码实现(python)思路分析非极大值抑制(Non-Maximum Suppression,NMS),顾名思义就是抑制不是极大值的元素,可以理解为局部最大搜索。是目标检测中常用的一种精修bounding box的方式。上面就很好的展示了NMS的运行效果~1.首先输入图片中包括很多目标种类(人,马,狗,汽车)。2.可以通过各式各样的候选框生成方法,可以得到右上角图中众多候选框(目前还没有进行分类)。3.到了右下角图中,每个类别都用不同的颜色进行标注,但是每个类别都有很多重叠的候原创 2020-12-02 15:02:17 · 3287 阅读 · 4 评论 -
目标检测---IoU计算公式
目标检测之IoU计算在研究目标检测中,IOU的计算是肯定必不可少的。就比如说在R-CNN网络中,正负样本就是按照候选框与真实框之间的IOU值大小进行区分的,可见该细节还是值得单独拎出来写一篇blog的~~下面的思路与代码是本人的理解结合百度飞浆的使用教程文档整理出来的(下面附上了飞浆的url,大家可以自主去研究~~~)百度飞浆–IOU计算废话不多说,直接上干货~思路分析例如,在R-CNN网络中,我们通过SS(selective search)算法可以实现在每张图片上获得2k左右的候选框,那么如何原创 2020-12-02 11:42:05 · 20752 阅读 · 8 评论