Deep Learning
该专栏主要针对对Deep Learning理论的讲解,以及计算机视觉的相关算法和理论。
pfeiKing
安安静静地先稳住
展开
-
FPN 特征金字塔网络
目录一、引入二、FPN结构三、FPN的使用一、引入 很久以前的目标检测算法,为了可以检测到一张图片中不同尺度的物体,需要对图片进行不同尺寸的缩放,缩放之后的图片集就是图像金字塔。 为什么在特征提取网络中也需要FPN(Feature Pyramid Network)呢,?传统的CNN网络结构通过不断地卷积和下采样,得到了图像的抽象特征,但是...原创 2020-03-05 17:29:03 · 1394 阅读 · 0 评论 -
SPP-Net目标检测算法深度剖析
目录一、引入SSP-Net二、SSP-Net简介三、网络架构四、总结论文地址 :https://arxiv.org/abs/1406.4729一、引入SSP-Net 为何们猛然间对SSP-Net起了好奇之心呢?因为在学习R-CNN系列算法的时候,总有资料提到SSP-Net(Spatial Pyramid Pooling-Net)算法(其实是一种深度学习的网...原创 2020-02-25 16:36:56 · 682 阅读 · 0 评论 -
YOLO_9000目标检测算法深度剖析
目录一、何为YOLO_9000二、9000种类的思考三、引入WordTree四、如何计算分类的损失五、如何进行预测六、相较YOLO_v2训练流程的改变一、何为YOLO_9000 YOLO_9000是在YOLO_v2的基础上进行9000中目标的分类算法,其结构等都与YOLO_v2一致,唯一不同的就是分类地方,不再是原先的20位,而是具有更加多样性的900...原创 2020-02-22 16:45:32 · 676 阅读 · 0 评论 -
YOLO_v2目标检测算法深入剖析
目录一、YOLOv2引入二、网络结构1、结构纵览2、passthrougth层三、Batch Normalization四、微调分类模型五、Anchor思想六、预测边框的位置七、多尺度图像训练八、YOLO_v2训练过程九、损失函数十、总结论文地址:https://arxiv.org/abs/1612.08242一、YOLOv2引入 ...原创 2020-02-21 16:42:03 · 1899 阅读 · 0 评论 -
YOLO_v1目标检测算法深入理解
目录一、YOLO算法的引入二、算法的初步思考二、简单的网络结构三、数据集的处理四、LOSS函数的形成1、类别部分2、存在物体的置信度部分3、不存在物体的置信度部分4、宽高的部分5、LOSS公式中的几个lambda参数五、预测六、总结论文地址:https://arxiv.org/abs/1506.02640一、YOLO算法的引入 ...原创 2020-02-19 17:20:10 · 881 阅读 · 0 评论 -
R-CNN、Fast R-CNN、Faster R-CNN深度剖析
讲解目标检测中R-CNN系列的发展变迁,以及家族中各个版本算法的特点,并且着重讲解Faster R-CNN的详细原理,以及算法的首先流程,模型的训练流程。原创 2020-02-17 20:38:28 · 1166 阅读 · 0 评论 -
CNN 卷积神经网络Back Propagation推导过程
卷积神经网络的传播过程:step1.二维的像素图片作为输入step2.然后进入卷积层操作: 卷积层需要一个卷积核,通过卷积核对原图进行卷积操作,然后得到一张新的图,这张新的图中的每一个点代表了输入图片中每一块区域(该区域和卷积核区域一样大)的特征。一个的图像经过的卷积核进行卷积得到大小的新图片。一个卷积核作用在一张图片上形成的图片叫作feature map,...原创 2019-03-16 22:11:20 · 3812 阅读 · 2 评论 -
Recurrent Neural Network
RNN推导:https://zybuluo.com/hanbingtao/note/541458LSTM:http://colah.github.io/posts/2015-08-Understanding-LSTMs/原创 2019-05-16 20:15:06 · 317 阅读 · 0 评论 -
LBP 理论
LBP(Local Binary Patterns):局部二进制模式,用来描述图像局部纹理特征的算子。LBP提取特征的步骤:step1.将图片划分成为很多个cellstep2.计算每一个cell中的每一个像素点的LBP值step3.计算每一个cell的直方图,也就是cell中每个LBP值出现的频率,然后将直方图进行归一化处理step4.将每一个cell的直方图连起来成为一个特征...原创 2019-03-16 20:24:27 · 1413 阅读 · 0 评论 -
PCA 理论
PCA(Principal Component Analysis):该矩阵表示有M个样例,每个样例有N维,通过PCA将其转化为:该矩阵表示有M个眼里,每个样例有维,其中,因此达到了降低维度的目的。简单来说PCA是将原本单个样本从原先的维空间映射到空间上去,现在就是要找到映射矩阵,然后将其作用在A上,即。行向量两两正交,并且单位化。下面的公式用表示维度,表示样本序号样本均值:一维...原创 2019-03-16 15:55:24 · 645 阅读 · 3 评论 -
读取mnist手写识别的数据集
mnist手写识别数据集地址:https://pan.baidu.com/s/1Z8xWdPlSZwkOE-Gwy2e0LA 提取码:by4g里面有一个mnist.pkl的文件,pkl是一个很多的序列组成的文件(也就是一个序列化的东西),它已经把手写识别的图片(28*28)的转化成了一个向量(1,784),然后给出了这个图片的标识0-9。首先要打开pkl文件,需要用到py包cPickle...原创 2019-02-21 21:17:59 · 1323 阅读 · 0 评论 -
GradientDescent(梯度下降)算法的理解
公式:公式解释:用w减去其目标函数对w求得的偏导数乘以一个常数,之后所得到的新值再次赋值给w上面的这个凸函数是一个二次函数,在点w处求得其梯度,也就是该点的导数值,该点的导数值表示该点下降的快,还是慢,它形容的是一个程度,是一个比重,不是一个具体的大小长短,类似于一个百分比,5%或者150%。那么如何让它变得有大小长短呢,那就给他一个单位距离,也就是步长也就是公式中乘上的。如果导数值很...原创 2019-02-21 21:37:55 · 788 阅读 · 0 评论 -
Neural Networks中使用Cross-Entropy Cost Function交叉熵损失函数的理论推导
Cross-Entropy Cost Function:其中neural network一共有L层,假设输出层L有n个神经元:真实数据的转化为列向量的第j个元素:代表输出层的第j个元素首先列出3个方程: 参数是w和b,所以要求出, 上面就是cost函数对于参数w,b的偏导数求解,以及梯度下降的公式由来。 ...原创 2019-02-22 19:38:05 · 460 阅读 · 0 评论 -
Logistic Regression详细剖析
Logistic Regression实现python代码:Logistic Regression作为二分类器的手写代码 vs 调用sklearn库数据集中的一组测试数据: =,其对应的一个输出,i=1, 2, ..., m要学习的参数为:,其向量表示为Sigmoid函数:预测函数:根据Sigmoid函数的性质,可以知道用概率表示: 损失函数:,此处...原创 2019-02-17 20:31:37 · 439 阅读 · 0 评论 -
Neural Network-Softmax function-Cross Entropy Cost function的公式推导过程
方程组中的第一个等式表示的是损失函数,该损失函数的交叉熵函数Cross-Entropy Costfunction方程组中的第二个等式表示的是每一个神经元的输出函数,其中在输出层使用SoftMax函数,其他层使用sigmoid函数方程组中的第三个等式表示的是由上一层的神经元的输出和权重得到的加权和那个现在的问题还是之前的老问题,对参数w和b求偏导,,,然后通过梯度下降算法...原创 2019-02-23 16:45:44 · 454 阅读 · 0 评论 -
Logistic Regression作为二分类器的手写代码 vs 调用sklearn库
Logistic Regression理论推导:Logistic Regression详细剖析Logistic Regression 二分类器本文展示两种代码:本人手写的logistic regression代码,与调用sklearn库中的logistic regression代码数据集:-0.017612 14.053064 0-1.395634 4.662541 1-0....原创 2019-02-18 19:36:25 · 1954 阅读 · 3 评论 -
Neural Network中运用Dropout算法理论推导以及代码实现中的一些技巧
下面是Dropout的一篇论文,可以下载下来看看链接:https://pan.baidu.com/s/15zMj9pKY630hR8RXZZ2WDw提取码:b57k首先,简单几句话讲解一下Dropout的操作方法,随机的隐藏掉隐藏层的一定比例的神经元,输出层和输出层不用去隐藏掉一部分。在feedforward和backpropagation的过程中只在剩下的神经元中传递,更新参数w,b。...原创 2019-02-28 20:02:42 · 717 阅读 · 0 评论 -
BackPropagation算法理论详解及公式推导
定义: :步长 :第(l-1)层隐藏层的第i个神经元------------>第(l)层隐藏层的第j个神经元的连线的权值 :第(l)层隐藏层的第j个神经元的偏量bias,下面的图片中的就是 : 一、目标函数: 此处的y是向量(样本提供的标准答案),...原创 2019-02-19 21:40:44 · 2300 阅读 · 0 评论 -
Neural Network L1正则,L2正则优化
假设原先未加入正则优化的现在进行L1正则分析:对其求偏导数:因此的更新函数:参数不需要做任何变化。现在进行L2正则分析:对其求偏导数:因此的更新函数:参数不需要做任何变化。对于的求解可以参考:Neural Networks中使用Cross-Entropy Cost Function交叉熵损失函数的理论推导BackPropagation算法理论详解及公式推...原创 2019-02-25 20:15:40 · 367 阅读 · 0 评论 -
梯度下降算法
回归与梯度下降: 回归在数学上来说是给定一个点集,能够用一条曲线去拟合之,如果这个曲线是一条直线,那就被称为线性回归,如果曲线是一条二次曲线,就被称为二次回归,回归还有很多的变种,如locally weighted回归,logistic回归,等等,这个将在后面去讲。 用一个很简单的例子来说明回归,这个例子来自很多的地方,也在很多的open source的软件中看到,比如说weka。...转载 2018-11-26 16:35:43 · 214 阅读 · 0 评论