自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(12)
  • 收藏
  • 关注

原创 Region Based CNN 系列之——(3) Faster-RCNN思路及其基础整理

基于之前两篇博客对RCNN和Fast-RCNN的介绍,现在来理解Faster-RCNN就会觉着很简单。因为Faster-RCNN就是在Faste-RCNN的基础上,做了一些改进。一、整体结构 整个网络由两个模块组成,第一个是RPN(Region Proposal Network),代替之前用传统方法(如Selective Search)进行Region Proposal的...

2019-05-05 15:49:09 411

原创 从熵、相对熵、交叉熵到机器学习的交叉熵损失与softmax损失函数

在之前学习神经网络的时候,对于损失函数这块,一直以MSE来作为理解,后来交叉熵损失出现之后,也没有深刻地将其理解,写代码时也是直接调用库函数。现在因为读一些新的文章,发现有些看不懂了,因此将这一块知识补充起来。1、熵(Entropy) 熵的概念来源于信息论,可以代表一个事件的复杂度,或者不确定性。一个事件越是不确定性大,那么就是月复杂,所提供的信息就会越多。 举个例...

2019-04-28 16:18:24 719

原创 Region Based CNN 系列之——(2) Fast-RCNN思路及其基础整理

以R-CNN思路及其基础整理和SPP-net为基础,我们便可以很好理解Fast-RCNN。一、整体结构 Fast-RCNN的整体结构主要由这几部分组成:1.对输入图片用区域推荐算法获得2000个区域,并记录下框的坐标和索引;2.用卷积神经网络对图片进行特征提取,并且将框同样映射到特征空间(也就是对应到特征图上应该在什么位置);3.将卷积神经网络的最后一层pool层替换为...

2019-04-26 21:52:07 602

原创 SPP-net

参考文献:Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition SPP-net的思路其实很简单,就是为了解决传统卷积神经网络在含有FC(全连接层)的时候,只能输入固定尺寸的图片的弊端。在传统带有FC的网络中,若想输入不同尺寸的图片,必须先将它们进行裁剪或resize。如何...

2019-04-26 11:23:00 219

原创 Region Based CNN 系列之——(1) R-CNN思路及其基础整理

现在对于从RCNN到FRCNN的论文已经有了很多优秀的博客来介绍,因此在这里,我只简单写一些思路性的东西,以及为了理解所加入的一些基础知识。一、RCNN的整体结构 如上图所示,RCNN的整体结构其实相对比较简单,首先为输入图像(可以是任意尺寸),其次通过Region Proposal 获取到约2000个候选区域,然后将这2000个候选区域直接resize成固定大小...

2019-04-25 14:30:14 524

原创 TX2上运行py-faster-rcnn 的demo并训练自己的数据集

参考 https://blog.csdn.net/sinat_20350479/article/details/785256881. 下载源码git clone --recursive https://github.com/rbgirshick/py-faster-rcnn.git可提前下载,直接解压(py-faster-rcnn.zip)2. 复制makefile,编译过...

2019-03-17 15:52:37 691

原创 机器学习中的核函数与核方法(是什么?为什么?怎么做?)

我们在学习机器学习的时候,总是会看到一个概念——核,然后看到一堆公式。但是为什么要核呢?核到底是啥玩意?云里雾里。接下来,我们将要把“核”这个东西的神秘面纱一点点揭开。一、什么是“核函数”我们都知道,机器学习(神经网络)的一个很重要的目的,就是将数据分类。我们想象下面这个数据(图1),在二维空间(特征表示为和)中随机分布的两类数据(用圆圈和叉叉表示)。如果我们想要将这两类数据进行分...

2018-11-21 15:20:14 28444 13

原创 形象理解线性代数(四)——向量的点乘(点积,内积)和叉乘(外积)

一、向量的点积首先,我们知道向量的点积公式定义:                      (1)但是当学过内积之后,我们对其又有了新的表述形式                (2)我们来看定义(2),一个那么美妙的式子。在图中去理解好像更容易一些:这不就是相当于x向量的长度乘以y向量在x方向上投影的长度吗。二、向量的叉积同样,我们来看下叉积的定义:    ...

2018-11-21 10:47:24 10935 2

原创 形象理解线性代数(三)——列空间、零空间(核)、值域、特征值(特征向量)、矩阵与空间变换、矩阵的秩

这里,我们还是要以 形象理解线性代数(一)——什么是线性变换?为基础。矩阵对向量的作用,可以理解为线性变换,同时也可以理解为空间的变换,即(m*n)的矩阵会把一个向量从m维空间变换到n维空间。一、矩阵的列空间与矩阵的秩以及值域的关系矩阵的列空间,其实就是矩阵的列所组成的空间。比如我们考虑一个(3*2)的矩阵,他的列空间就是向量和向量所能组成的空间。在这里,我们有两个向量,所以矩阵的列秩为2...

2018-11-20 12:48:46 15004 2

原创 形象理解线性代数(二)——行列式的意义

通过形象理解线性代数(一)——什么是线性变换?,我们已经知道,原来矩阵的作用就是对向量的线性变换,而且更具体地讲,是对原空间的基底的变换。如果原空间的基底是,那么变换后的新的基底应该就相当于用A对旧的基底进行变换(缩放和旋转),并且新的基底(,)。其中代表矩阵的列向量。一、行列式与两组基所围成的面积之间的巧合示例对于矩阵,相当于把原来的基变成了,那么两组基所围成的面积,在图上看,得到,...

2018-11-19 20:37:51 3762

原创 形象理解线性代数(一)——什么是线性变换?

在之前学习线性代数的时候,我们总是说矩阵乘以向量就是对其进行了线性变换,而且我们可以很容易的计算出结果,但是我们并不知道其在形象的几何角度有什么意义。于是我们可以这样来理解:首先,向量可以有三种表示形式,带有箭头的有向线段,符号以及,下面我们将在这三种表示中来回转换,并且以二维空间为例,来说明其中之奥秘。一、向量在空间中的表示任何一个空间都可以由一组基构成,言外之意,这个空间上的任何一...

2018-11-19 15:52:17 41027 4

原创 深刻理解空间(线性空间,度量空间,赋范空间,线性赋范空间,内积空间,巴拿赫空间以及希尔伯特空间)

在我们学习矩阵理论和统计理论的时候,总是会出现“**空间”。在之前的时候对于空间理解的过程中,总是试图拿出一个具体的例子来加深自己的理解。但是这样做是不对的,因为如果说对于类似“欧几里何空间”这样的空间,跟我们生活中的三维空间极为相似,我们确实可以想象到一个具体的例子,但是对于类似“希尔伯特空间”之类的,我们很难用一个具体的实例来印证。所以,“**空间”到底是个什么东西呢?很感谢交大王老师的公...

2018-11-17 21:36:12 33362 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除