目标检测优化
文章平均质量分 51
目标检测优化
浩瀚之水_csdn
路漫漫其修远兮,吾将上下而求索,立刻行动,坚持,努立
展开
-
YOLOV3 --BUG---No labels in D:\yolov5\train_data\train.cache. Can not train without labels.
采坑:No labels in D:\yolov5\train_data\train.cache. Can not train without labels.参考:https://blog.csdn.net/qq_44787464/article/details/99736670解决办法:STEP1:一定要按照这个顺序:新建Annotations(存放voc格式的xml)新建JPEGImages(存放训练的图片)新建ImageSets ,labels (这两个文件为空)将JPEGIma转载 2022-02-25 18:25:41 · 3081 阅读 · 0 评论 -
合并BN层到卷积层的原理及实验
1. 为什么要合并BN层在训练深度网络模型时,BN(Batch Normalization)层能够加速网络收敛,并且能够控制过拟合,一般放在卷积层之后。BN 层将数据归一化后,能够有效解决梯度消失与梯度爆炸问题。虽然 BN 层在训练时起到了积极作用,然而,在网络前向推断时多了一些层的运算,影响了模型的性能,且占用了更多的内存或者显存空间。目前,很多先进的网络模型(ResNet,MobileN...转载 2018-11-03 13:49:01 · 1347 阅读 · 0 评论 -
caffe中的batchNorm层(caffe 中为什么bn层要和scale层一起使用)
caffe中的batchNorm层 链接: http://blog.csdn.net/wfei101/article/details/78449680caffe 中为什么bn层要和scale层一起使用这个问题首先你要理解batchnormal是做什么的。它其实做了两件事。1) 输入归一化 x_norm = (x-u)/std, 其中u和std是个累计计算的均值和方差。2)y=al...转载 2018-11-03 13:49:35 · 1045 阅读 · 0 评论 -
模型优化:BatchNorm合并到卷积中
1.bn合并的必要性: bn层即batch-norm层,一般是深度学习中用于加速训练速度和一种方法,一般放置在卷积层(conv层)或者全连接层之后,将数据归一化并加速了训练拟合速度。但是bn层虽然在深度学习模型训练时起到了一定的积极作用,但是在预测时因为凭空多了一些层,影响了整体的计算速度并占用了更多内存或者显存空间。所以我们设想如果能将bn层合并到相邻的卷积层或者全连接层之后就好了,于是...转载 2018-11-03 13:51:22 · 1680 阅读 · 1 评论 -
合并BN层到卷积层的原理及实验
1. 为什么要合并BN层在训练深度网络模型时,BN(Batch Normalization)层能够加速网络收敛,并且能够控制过拟合,一般放在卷积层之后。BN 层将数据归一化后,能够有效解决梯度消失与梯度爆炸问题。虽然 BN 层在训练时起到了积极作用,然而,在网络前向推断时多了一些层的运算,影响了模型的性能,且占用了更多的内存或者显存空间。目前,很多先进的网络模型(ResNet,MobileN...转载 2018-12-03 10:25:42 · 1058 阅读 · 0 评论 -
batch_normalization (bn)层以及实际使用中合并bn层
参考:bn层原理:https://blog.csdn.net/hjimce/article/details/50866313 合并bn层:https://blog.csdn.net/kangdi7547/article/details/81348254 caffe中的实现:https://blog.csdn.net/zziahgf/article/details/7...转载 2018-12-03 10:29:23 · 1225 阅读 · 0 评论 -
深度网络pre-train对于深度网络的意义
1 pre-train 带来更好的优化还是更好的泛化?pre-train是一个寻网络权值初值的过程,将pre-train的结果作为BP算法的权值的初值,能够解决深度网络在非凸目标函数上陷入局部最优的问题。从这个角度理解更象是带来更好的优化能力。在带有pre-train的深度网络的泛化表现上不仅仅是训练误差很小,同时泛化误差也很小,下图可以看出带有pre-train的网络在减小测试误差的能力上更...转载 2018-12-15 13:46:28 · 3943 阅读 · 0 评论 -
Deep Compression阅读理解及Caffe源码修改
Deep Compression阅读理解及Caffe源码修改作者:may0324更新: 没想到这篇文章写出后有这么多人关注和索要源码,有点受宠若惊。说来惭愧,这个工作当时做的很粗糙,源码修改的比较乱,所以一直不太好拿出手。最近终于有时间整理了一下代码并开源出来了。关于代码还有以下几个问题: ~1.在.cu中目前仍然是调用cpu_data接口,所以可能会增加与gpu数据交换的额外耗时,这...转载 2018-12-11 11:03:18 · 210 阅读 · 0 评论 -
正负样本不平衡处理方法总结
转载链接: https://blog.csdn.net/qq_14845119/article/details/789300911, Bootstrapping,hard negative mining 最原始的一种方法,主要使用在传统的机器学习方法中。 比如,训练cascade类型分类模型的时候,可以将每一级分类错误的样本继续添加进下一层进行训练。 比如,SVM分类中去掉那些离分界线较...转载 2018-11-03 10:38:46 · 2314 阅读 · 0 评论 -
不平衡样本处理方法
原文链接:http://blog.csdn.net/heyongluoyao8/article/details/49408131在分类中如何处理训练集中不平衡问题 在很多机器学习任务中,训练集中可能会存在某个或某些类别下的样本数远大于另一些类别下的样本数目。即类别不平衡,为了使得学习达到更好的效果,因此需要解决该类别不平衡问题。Jason Brownlee 的回复:原文标题:8 ...转载 2018-11-03 10:37:09 · 1312 阅读 · 0 评论 -
FocalLoss的Caffe复现版
原代码见: https://github.com/chuanqi305/FocalLoss1,caffe.proto 源文件在src/caffe/proto/目录里 从492行这些optional里,作者添加了两行:optional ReLU6Parameter relu6_param = 208;optional FocalLossParameter focal_loss_par...转载 2018-11-03 10:34:49 · 509 阅读 · 0 评论 -
OHEM算法及Caffe代码详解
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/u014380165/article/details/73148073这是CVPR2016的一篇论文,用于目标检测,本篇博文先介绍这个算法,然后介绍其Caffe代码。论文:Training Region-based Object Detectors with Online Hard Exa...转载 2018-10-16 17:33:25 · 381 阅读 · 0 评论 -
深度学习: 从 RoIPooling 到 RoIAlign
版权声明:转载请注明出处 https://blog.csdn.net/JNingWei/article/details/78822159SPP Layer对RoI进行pooling的操作最早由SPPNet中的SPP layer提出: 对RoI进行pooling,使得检测网络可以输入任意size的图片。因为从输入图片到fc之间契入了对RoI的pooling,使得fc的存在也无法写死输...转载 2018-10-17 16:49:08 · 630 阅读 · 0 评论 -
Mask-RCNN中的ROIAlign, ROIPooling及ROIWarp对比
RoI Pooling实现从原图ROI区域映射到卷积区域最后pooling到固定大小的功能,然后通过池化把该区域的尺寸归一化成卷积网络输入的尺寸。ROIAlign上面RoI Pooling从原图ROI映射到卷积区域,即原图ROI与特征图ROI之间的映射,使用了stride间隔的取整,使得特征图ROI再映射回原图ROI的时候有stride的误差。尤其经过最大值池化后的特征与原ROI之间的空间...转载 2018-10-17 16:50:47 · 684 阅读 · 0 评论 -
目标检测特殊层:ROI Align层详解
ROI Align 是在Mask-RCNN这篇论文里提出的一种区域特征聚集方式, 很好地解决了ROI Pooling操作中两次量化造成的区域不匹配(mis-alignment)的问题。实验显示,在检测测任务中将 ROI Pooling 替换为 ROI Align 可以提升检测模型的准确性。如果roi大小为(7,6),而roipooling是分成了(6,6)的部分,(7,6)到(6,6)的转换必...转载 2018-10-17 17:01:33 · 2296 阅读 · 0 评论 -
目标检测特殊层:PSROIPooling详解
1. Position Sensitive ROI-Pooling 简介 Position Sensitive ROI Pooling(位置敏感的候选区域池化)是检测框架R-FCN的主要创新点。一般来讲,网络越深,其具有的平移旋转不变性越强,这个性质对于保证分类模型的鲁棒性有积极意义。然而,在检测问题中,对物体的定位任务要求模型对位置信息有良好的感知能力,过度的平移旋转不变性会削弱这一性能。...转载 2018-10-17 17:03:28 · 1173 阅读 · 0 评论 -
caffe添加层:Focal Loss的caffe实现
版权声明:本文为博主原创文章,转载请注明出处,谢谢。 https://blog.csdn.net/wfei101/article/details/79477542原代码见: https://github.com/chuanqi305/FocalLoss1,caffe.proto 源文件在src/caffe/proto/目录里 从492行这些optional里,作者添加了两行:...转载 2018-11-03 10:34:02 · 1811 阅读 · 7 评论 -
关于hard-negative mining
1. hard-negative mining negative相对于positive,是相对于正样本来说,不含有目标的负样本。但是,negative包括很多,有完全不包含目标的的,也有部分含有的,也就是容易/不容易被分为负样本的。其中比较容易被判定是负样本(比如全是背景)的对于训练并不能起到很好的监督作用。我们需要找一些难划分的负样本,也就是hard negative,来增强网络的判...转载 2018-10-16 17:30:21 · 1334 阅读 · 0 评论