自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

leo_fighting

深度学习 目标检测 机器学习

  • 博客(87)
  • 收藏
  • 关注

转载 C++ explicit关键字详解

首先, C++中的explicit关键字只能用于修饰只有一个参数的类构造函数, 它的作用是表明该构造函数是显示的, 而非隐式的, 跟它相对应的另一个关键字是implicit, 意思是隐藏的,类构造函数默认情况下即声明为implicit(隐式).那么显示声明的构造函数和隐式声明的有什么区别呢? 我们来看下面的例子:class CxString // 没有使用explicit关键字的类声明, 即默认为隐式声明{public:char *_pstr;int _size;CxStrin

2020-10-05 21:49:40 518 1

原创 using 指示与 using 声明的区别

using 声明:每次只引入命名空间的一个成员(using xxx::memeber)。其有效范围从 using 声明的地方开始,一直到 using 声明所在的作用域结束为止。在此过程中,外层作用域的同名实体将被隐藏。using 指示:以关键字 using 开始,加上 namespace 以及命名空间的名字(using namespace xxx)。using 指示使得某个特定的命名空间中所有的名字都可见,这样我们就无须再为这些名字添加任何前缀限定符了。简写的名字从 using 指示开始,一直到 usi

2020-10-05 20:46:54 656

原创 MOBILE_FFMPEG_BUILD_DATE 在哪?

最近在看 mobile-ffmpeg的源码,在 mobileffmpeg.c 看到一个名为MOBILE_FFMPEG_BUILD_DATE 的宏,但是在 mobileffmpeg.h 头文件中没有看到相关定义,考虑是不是定义到其他头文件了,那就 grep 一下grep -r MOBILE_FFMPEG_BUILD_DATE让我奇怪的是,还是只有mobileffmpg.c 出现了这个宏...

2020-01-13 09:36:09 777

原创 C++语法

在C++primer(第5版)中关于new的讨论有:1、new当个对象new在自由空间分配内存,但其无法为其分配的对象命名,因次是无名的,分配之后返回一个指向该对象的指针。 1 int *pi =new int;// pi指向一个动态分配的,未初始化的无名对象 此new表达式在自由空间构造一个int类型对象,并返回指向该对象的指针。...

2019-12-31 14:26:14 377

转载 SNIP:目标检测论文解读

1. Background & Related Work1.1 简介这篇文章主要的研究点是目标检测中的小物体问题。小物体检测一直是目标检测中的难题,做过实验的同学应该都知道数据集中small类的AP基本是最低的,主要原因是两个,一个就是CNN网络提取到的语义化特征和分辨率之间的矛盾;另一个就是目前的目标检测都采用了Faster RCNN的Anchor思想,小物体有时候即使全部在An...

2019-12-07 22:30:34 236

原创 C++ 模板类声明和实现遇到的问题

声明一个 模板类的头文件 Stack.h#include <vector>#include <cassert>template<typename T>class Stack {private: std::vector<T> mystack;public: void push(T const &elem);...

2019-11-17 22:14:43 847

转载 Deformable Convolutional Networks

这篇论文其实读起来还是比较难懂的,主要是细节部分很需要推敲,尤其是deformable的卷积如何实现的一步上,在写这篇博客之前,我也查阅了很多其他人的分享或者去github找代码,当然也不敢说完全了解了这种特殊的卷积……仅仅做一点自己的阅读心得与体会吧。这是一篇很有意义的工作,但是和深度学习很多论文一样,在读完之后内心也不免有着种种疑云。Deformable Convolutional Ne...

2019-11-14 23:23:00 196

转载 Batch Normalization

2019-09-29 10:59:37 69

转载 深入理解L1、L2正则化

https://www.cnblogs.com/zingp/p/10375691.html

2019-09-29 10:33:22 153

原创 Resnet 结构解析

面对梯度下降问题,我们考虑这样一个事实:现在你有一个浅层网络,你想通过向上堆积新层来建立深层网络,一个极端情况是这些增加的层什么也不学习,仅仅复制浅层网络的特征,即这样新层是恒等映射(Identity mapping)。在这种情况下,深层网络应该至少和浅层网络性能一样,也不应该出现退化现象。ResNet 的核心思想是 引入一个恒等快捷连接(identity shortcut connectio...

2019-09-14 21:09:12 605

转载 TridentNet:处理目标检测中尺度变化新思路

今天破天荒地为大家介绍一篇我们自己的工作(Scale-Aware Trident Networks for Object Detection),因为我是真的对这个工作很满意,哈哈。这篇文章主要要解决的问题便是目标检测中最为棘手的scale variation问题。我们使用了非常简单干净的办法在标准的COCO benchmark上,使用ResNet101单模型可以得到MAP 48.4的结果,远远超越...

2019-09-14 20:35:32 714 1

原创 DenseNet算法详解

论文:Densely Connected Convolutional Networks论文链接:https://arxiv.org/pdf/1608.06993.pdf代码的github链接:https://github.com/liuzhuang13/DenseNetMXNet版本代码(有ImageNet预训练模型): https://github.com/miraclewkf/De...

2019-09-14 20:34:37 237

原创 C++ 指针和引用

说道C++的指针,很多人都很头疼,也很confuse。经常把它和变量名,引用(reference)等混淆,其实这最主要的原因是很多程序员对于基本知识的掌握有问题,从而导致的很多基本概念的混淆。本文就是从最基本的概念讲起,着重分析和比较指针和引用。主要从以下几个方面着重的讲解:1. 变量(variable)的表现形式;2. 指针的结构和原理;3. 引用的结构和原理;4. 指针在Arr...

2019-09-08 23:23:57 217

转载 卷积神经网络物体检测之感受野大小计算

学习RCNN系列论文时, 出现了感受野(receptive field)的名词, 感受野的尺寸大小是如何计算的,在网上没有搜到特别详细的介绍, 为了加深印象,记录下自己对这一感念的理解,希望对理解基于CNN的物体检测过程有所帮助。1感受野的概念  在卷积神经网络中,感受野的定义是 卷积神经网络每一层输出的特征图(feature map)上的像素点在原始图像上映射的区域大小。   ...

2019-09-06 22:27:44 220

转载 FPN详解

论文题目:Feature Pyramid Networks for Object Detection论文链接:论文链接论文代码:Caffe版本代码链接一、FPN初探1. 图像金字塔图1 图像金字塔图2 高斯金字塔效果如上图所示,这是一个图像金字塔,做CV的你肯定很熟悉,因为在很多的经典算法里面都有它的身影,比如SIFT、HOG等算法。我们常用的是高斯金字塔...

2019-09-04 22:56:26 2716

原创 没有激活函数,存在某个单层神经网络等价于多层神经网络的证明

给定一个小批量样本,其批量大小为n,输入个数为d。假设多层感知机只有一个隐藏层,其中隐藏单元个数为h。记隐藏层的输出(也称为隐藏层变量或隐藏变量)为,有。因为隐藏层和输出层均是全连接层,可以设隐藏层的权重参数和偏差参数分别为和,输出层的权重和偏差参数分别为和。我们先来看一种含单隐藏层的多层感知机的设计。其输出的计算为,也就是将隐藏层的输出直接作为输出层的输入。如果将以上两个式子联...

2019-08-31 22:02:52 1418

转载 从神经网络视角看均方误差与交叉熵作为损失函数时的共同点

2019-08-30 16:02:23 381

原创 caffe中卷积的实现,参数计算,FLOPS计算

内容1. 卷积神经网络中卷积核维度2.caffe中卷积的实现3. 卷积参数的计算4. FLOPS 的计算5.reference1. 卷积神经网络中卷积核维度一个卷积核是三维的(channel×height×width),channel 其中表示输入的维度, 每个卷积层有若干卷积核,一个卷积核输出的feature map是二维的,每层输出的feature map数量和卷积...

2019-08-26 23:38:50 1030 1

原创 彻底理解BP算法

本文内容1.最简单的神经网络2. 前向传播3.计算损失4. 反向传播1.最简单的神经网络如下图所示一个简单神经网络,包括2个输入,2个隐层神经元,2个输出,输入和隐层,隐层和输出之间通过权重W*连接,不考虑使用偏置.假设 输入 l1 = 0.2, l2 = 0.3; O1目标输出是0, O2目标输出是1; 权重 w1 = 0.1, w2 = ...

2019-08-21 23:39:29 551

转载 SSD目标检测方法

SSD是YOLO之后又一个引人注目的目标检测结构,它沿用了YOLO中直接回归 bbox和分类概率的方法,同时又参考了Faster R-CNN,大量使用anchor来提升识别准确度。通过把这两种结构相结合,SSD保持了很高的识别速度,还能把mAP提升到较高的水平。一、基本结构与原理原作者给了两种SSD结构,SSD 300和SSD 512,用于不同输入尺寸的图像识别。本文中以SSD 300为例...

2019-08-18 22:27:17 588

原创 OHEM 代码详解

目录1.网络结构2.OHEM 前向传播3 .reference1.网络结构############################ Readonly RoI Network ########### Start ##########layer { name: "roi_pool5_readonly" type: "ROIPooling" bottom: "co...

2019-08-18 21:40:48 1250

原创 使用numpy实现NMS

"""基于numpy 实现的 非极大值抑制 NMS"""import numpy as npdef py_cpu_nms(dets, thresh): """ nms :param dets: ndarray [x1,y1,x2,y2,score] :param thresh: int :return: list[index] """...

2019-08-17 23:59:13 1395 2

原创 Bounding-box regression

1. 输入 :N 个训练对,其中, 表示 的是Proposal的中心点坐标和宽高。方便叙述,以下公式中上标i均略去显示。另外,表示的是Ground-truth 的 中心点坐标和宽高。2.输出:预测的 ground-truth边框回归的目标是学习一种映射关系,来完成Proposal P到 ground-truth G的映射。首先通过和完成中心点的平移,再通过...

2019-08-16 22:43:59 150

原创 CNN 知识点总结

Pooling layer 的作用汇合层的引入是仿照人的视觉系统对视觉输入对象进行降维(降采样)和抽象。在卷积神经网络过去的工作中,研究者普遍认为汇合层有如下三种功效:1.特征不变性(feature invariant)。汇合操作使模型更关注是否存在某些特征而不是特征具体的位置。可看作是一种很强的先验,使特征学习包含某种程度自由度,能容忍一些特征微小的位移。2.特征降维。由于汇合操作的...

2019-08-15 13:09:09 322

转载 TopK问题算法详解

面试中,TopK,是问得比较多的几个问题之一,到底有几种方法,这些方案里蕴含的优化思路究竟是怎么样的,今天和大家聊一聊。画外音:除非校招,我在面试过程中从不问TopK这个问题,默认大家都知道。问题描述:从arr[1, n]这n个数中,找出最大的k个数,这就是经典的TopK问题。栗子:从arr[1, 12]={5,3,7,1,8,2,9,4,7,2,6,6}这n=1...

2019-08-09 14:22:26 3284

原创 BN LN IN GN 使用 Numpy 简单实现

Table of ContentsBNLNINGNINFERENCEBNfeature map:包含 N 个样本,每个样本通道数为 C,高为 H,宽为 W。对其求均值和方差时,将在 N、H、W上操作,而保留通道 C 的维度。具体来说,就是把第1个样本的第1个通道,加上第2个样本第1个通道 ...... 加上第 N 个样本第1个通道,求平均,得到通道 1 的均值(注意是...

2019-07-25 20:30:27 1788

转载 牛顿法-梯度下降法

https://blog.csdn.net/lsgqjh/article/details/791680951. 梯度下降法(Gradient Descent)梯度下降法是最早最简单,也是最为常用的最优化方法。梯度下降法实现简单,当目标函数是凸函数时,梯度下降法的解是全局解。一般情况下,其解不保证是全局最优解,梯度下降法的速度也未必是最快的。梯度下降法的优化思想是用当前位置负梯度方向作为搜索方...

2019-07-18 16:56:41 9485 1

转载 机器学习中的Bias(偏差),Error(误差),和Variance(方差)有什么区别和联系?

https://www.zhihu.com/question/27068705

2019-07-15 20:35:40 162

转载 dp-novice-to-advanced

原文:http://hawstein.com/2013/03/26/dp-novice-to-advanced/前言本文翻译自TopCoder上的一篇文章:Dynamic Programming: From novice to advanced,并非严格逐字逐句翻译,其中加入了自己的一些理解。水平有限,还望指摘。前言_我们遇到的问题中,有很大一部分可以用动态规划(简称DP)来解...

2019-07-10 19:52:33 107

原创 awesome paper for cnn visualization and weakly supervised object detection

cnn_visualizationLearning Deep Features for Discriminative Localizationhttps://arxiv.org/pdf/1512.04150.pdfTop-down Neural Attention by Excitation Backprophttps://arxiv.org/pdf/1608.00507.pdfGrad...

2019-03-24 16:01:28 509

原创 Awesome Papers for Object Detection

Object-DetectionCVPR 2019Generalized Intersection over Union: A Metric and A Loss for Bounding Box Regressionhttps://arxiv.org/pdf/1902.09630.pdfFeature Selective Anchor-Free Module for Single-Sho...

2019-03-24 15:54:20 375

原创 pyfaster-rcnn easy-dict 没有传入YML 值

First Solution:Certain version of EasyDict has bugs such that the parameters in YAML did not get propagated to the actual dictionary. A quick solution is to directly set config.py (accroding to your...

2019-03-05 18:11:11 143

转载 《为什么交叉熵(cross-entropy)可以用于计算代价? - 知乎》

 https://www.zhihu.com/question/65288314

2019-01-19 22:12:35 657

原创 第十二讲:贝叶斯学习与EM算法(下)

主要内容  2 EM算法    2.1 引入           2.1.1 MLE回顾           2.1.2 高斯混合模型与EM算法           2.1.3 GMM的贝叶斯理解           2.1.4 EM算法的收敛性    2.2 算法       2.2.1 算法过程       2.2.2 总结    2.3 一些例...

2019-01-01 21:34:48 3731

转载 Why does OpenCV use BGR color format ?

https://www.learnopencv.com/why-does-opencv-use-bgr-color-format/One of the elements of good design is the principle of least astonishment ( a.k.a principle of least surprise). A good intuitive desi...

2018-11-29 21:02:59 193

原创 第十一讲:贝叶斯学习与EM算法(中)

贝叶斯学习 1.1 估计分布的参数:离散变量(多值) 1.2 估计分布的参数:离散变量(二值) 1.3 0-1分布的MLE/MAP/贝叶斯估计 1.4 估计分布的参数:单变量高斯,方差已知 1.5 估计分布的参数:单变量高斯,方差未知 1.6 估计模型的参数: 回归 1.7 线性回归的预测分布  上一讲讲到了贝叶斯学习法。这种学习方法与MLE和MAP最大的...

2018-11-18 12:15:02 2432

原创 第十讲:贝叶斯学习与EM算法(上)

目录 贝叶斯学习 1.1 MLE 1.2 MAP 1.3 贝叶斯估计  1 贝叶斯学习 本讲我们将为大家介绍贝叶斯学习的内容,着重分析最大似然估计以及贝叶斯估计这两种方法在参数估计问题上的差异。虽然这两种方法得到的结果通常是很接近的,但是其本质却有很大的差别。 最大似然估计将待估计的参数看做是确定性的量,只是其值我们暂时还不知道;而贝叶斯估计则将待估计的参...

2018-10-14 11:43:13 8324 2

原创 第九讲:产生式模型:NaiveBayes, HMM(下)

目录1 引言2 隐马尔科夫模型(HMM)2.1 模型介绍2.2 HMM概率计算问题及其求解算法2.3 预测与学习2.4 HMM与动态系统3 小结参考文献 1 引言 上一讲已经提到生成式模型中的朴素贝叶斯算法。作为生成式模型中的一员,朴素贝叶斯主要对联合概率分布进行建模,通过假设各个输入特征之间条件独立,简化概率计算得到联合分布。该模型在垃圾邮件过滤等...

2018-09-09 00:04:15 665

原创 第八讲:产生式模型:NaiveBayes, HMM(上)

5 产生式模型5.1 产生式模型与判别式模型区别5.2 朴素贝叶斯5.2.1 原理与模型5.2.2 算法5.2.3 策略5.2.4 高斯判别分析5.3 隐马尔科夫模型5.3.1 模型5.3.2 推理:概率计算5 产生式模型5.1 产生式模型与判别式模型区别 结束了上节课具有和厦大精神(自强不息、止于至善)一样的boosting,这节课主要介绍了判...

2018-09-08 22:17:32 3145

原创 第七讲:决策树+随机森林+AdaBoost(下)

本讲主要内容4 集成学习(下)    4.3 Boosting        4.3.1 AdaBoost        4.3.2 损失函数回顾        4.3.3 提升树(Boosting Trees)        4.3.4 正则化4 集成学习(下)4.3 Boosting 提升(Boosting)是一种常用的统计学习方法,在分类问题中,它通过...

2018-09-08 21:44:04 1007 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除