![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
SyGoing
不断学习,才能永葆活力
展开
-
SPP、RFB和ASPP
SPP、RFB和ASPP CNN中“金字塔”系列的结构块在深度学习诸多模型中发挥着重要的作用,个人认为有大类:“横向”并联金字塔结构(Google的Inception系列)和“纵向”特征金字塔(FPN)。前者输出的特征图融合了具有多种尺度感受野的特征;后者更侧重于是深层语义特征与浅层边缘特征的融合,这里主要学习一下前者的几个典型结构(SPP、RFB和ASPP),这几种结构或许可以作为模型即插即用的组件,对于优化模型有帮助,更...原创 2020-08-06 10:08:22 · 7301 阅读 · 1 评论 -
数据增强之CutMix
vs mixup的论文:cutmix,长江后浪推前浪,很简单原创 2020-04-17 14:34:57 · 11032 阅读 · 6 评论 -
计算机视觉中注意力机制(Attention Mechanism)
注意力机制简单总结...原创 2020-03-17 11:25:06 · 739 阅读 · 0 评论 -
VOC数据集格式转化成COCO数据集格式
VOC数据集格式转化成COCO数据集格式一、唠叨 之前写过一篇关于coco数据集转化成VOC格式的博客COCO2VOC,最近读到CenterNet的官方代码,实现上则是将voc转化成coco数据格式,这样的操作我个人感觉很不习惯,也觉得有些奇葩,可能是每个人习惯不一样吧,我们知道有时候我们会采用labelImg标注数据,标注出来的格式就是voc,...原创 2019-12-20 16:53:17 · 8210 阅读 · 10 评论 -
目标检测训练优化Tricks:《Bag of Freebies for Training Object Detection Neural Networks》
目标检测训练Tricks论文笔记转载请注明出处:https://blog.csdn.net/ouyangfushu/article/details/88686189作者:SyGoingQQ: 244679942一、论文概述及创新点 深度学习中各种SOTA的模型除了网络架构设计的精妙之外,研究者在对模型进行训练的过程中也探索了很多有用的tricks,比如模型优化方法(SG...原创 2019-03-20 13:12:26 · 3577 阅读 · 1 评论 -
NIN(Network in Network)学习笔记
NIN(Network in Network)学习笔记一、前言 《Network In Network》是一篇比较老的文章了(2014年ICLR的一篇paper),是当时比较牛逼的一篇论文,同时在现在看来也是一篇非常经典并且影响深远的论文,后续很多创新都有这篇文章的影子。通常里程碑式的经典是不随时间而黯淡的,同样值得好好学习。 这篇文章采用较少参数就取得了Alexnet的效果,Al...原创 2019-05-14 18:59:16 · 16007 阅读 · 13 评论 -
SqueezeNet学习笔记
SqueezeNet学习笔记一、前言 《SQUEEZENET: ALEXNET-LEVEL ACCURACY WITH 50X FEWER PARAMETERS AND <0.5MB MODEL SIZE》[1]主要贡献是提出了减少网络参数的轻量级网络结构:SqueezeNet,该网络在ImageNet上的精度比肩AlexNet,然而模型的参数量比AlexNet少50倍,配...原创 2019-05-16 09:38:17 · 1407 阅读 · 0 评论 -
Network Slimming For YOLOv2/v3
Network Slimming For YOLOv2/v3论文:Learning Efficient Convolutional Networks through Network SlimmingGithub(官方开源):https://github.com/liuzhuang13/slimming其他实现:https://github....原创 2019-08-15 20:34:25 · 628 阅读 · 1 评论 -
通用数据增强方法(Data Augmentation)
通用数据增强方法(Data Augmentation)1、前言 机器学习尤其是深度学习中,为了防止模型过拟合,数据增强也是一种非常有效的方法,好多牛逼的模型除了网络结构精妙意外,在数据(比较吃数据的有监督深度学习)上也做了不可忽视的工作,才有state of the art的效果。来看一张图:C10和C100是没有经过数据增强的训练效果,C10+和C100+则是经过数据增强的效果...原创 2019-03-05 16:07:18 · 13456 阅读 · 5 评论 -
目标检测中基础概念之IOU、NMS及SoftNMS
目标检测中基础概念之IOU、NMS及SoftNMS转载请注明原出处:https://blog.csdn.net/ouyangfushu/article/details/87438585作者:SyGoingQQ: 2446799425 提到目标检测就不可避免的会经常涉及到IOU和NMS,无论采用何种目标检测算法,算法再牛逼都后会用到这些概念。虽然简单,但是还是有必要打好基础。...原创 2019-02-16 11:50:56 · 2281 阅读 · 0 评论 -
损失函数(Loss Functions/cost funtions)
损失函数(Loss Functions/cost funtions)总结原创 2018-06-06 19:16:59 · 636 阅读 · 0 评论 -
物体分类和目标检测性能评价指标
物体分类和目标检测性能评价指标 参考链接:https://blog.csdn.net/katherine_hsr/article/details/79266880 https://github.com/AlexeyAB/darknet#how-to-compil...原创 2018-09-11 11:04:51 · 1370 阅读 · 2 评论 -
卷积神经网络(CNN)感受野
参考:1、http://www.cnblogs.com/objectDetect/p/5947169.html2、https://blog.csdn.net/gzq0723/article/details/53138430原创 2018-11-29 18:54:19 · 296 阅读 · 0 评论 -
BP神经网络
BP神经网络一、BP神经网络模型及其前向传播 学了感知机以及逻辑斯蒂回归模型再来看BP神经网络,可以感觉到一脉相承。感知机加上sigmoid非线性激活就是逻辑斯蒂回归,逻辑斯蒂回归在累加几个“隐层”(输入输出之间再加隐藏层)就是BP神经网络的模型。 隐层的加入增强了模型的表达能力,隐层的层...原创 2018-12-27 16:17:46 · 2765 阅读 · 1 评论 -
正则化
正则化一、前言 在学习Dropout的时候提到正则化,正则化也是一种缓解过拟合的方法,网上很多说法是防止过拟合(包括我自己的Dropout),窃以为不太准确,不然为什么很多牛逼的网络基本都是多种方法联合使用。 过拟合(Overfitting)发生于训练数据不足、模型过大(参数量巨大)、过...原创 2019-01-10 19:51:56 · 559 阅读 · 0 评论 -
Dropout理论与实现
Dropout理论与实现一、前言 深度学习中为了防止过拟合有很多方法,如正则化、数据增强、Dropout、BatchNorm等等,其中Dropout是一种比较经典的算法,从2012年提出到现在依旧有着重要地位,经典就是经典。 对于Dropout,从开始学习深度学习就只知道它可以有效防止过拟合,对于为什么它可以一直模模...原创 2019-01-09 14:58:06 · 1852 阅读 · 0 评论 -
数据增强之mixup论文笔记
数据增强之mixup论文笔记一、前言深度学习一直以来存在计算量大(落地困难)和模型过拟合的问题。为了解决过拟合问题,从模型本身和数据这两个方面着手,提出了很多有效的方法。数据增强(Data Argumentation)则是从数据层面解决过拟合,提高模型的泛化性(generalization)...原创 2019-02-21 19:13:13 · 21251 阅读 · 13 评论 -
MSCOCO数据集格式转化成VOC数据集格式
MSCOCO数据集格式转化成VOC数据集格式转载请注明原出处:http://blog.csdn.net/ouyangfushu/article/details/79543575作者:SyGoingQQ: 2446799425SSD目标检测算法在MSCOCO上训练,SSD默认训练格式是VOC数据集格式,要想训练MSCOCO数据集可以将其转化成VOC,然后再训练。一、数据集介绍1、MSCOCO数据集...原创 2018-03-13 17:35:56 · 15605 阅读 · 22 评论