- 博客(19)
- 收藏
- 关注
转载 SVM推导
支持向量机是属于原创性、非组合的具有明显直观几何意义的分类算法,具有较高的准确率。 使用SVM算法的思路:(1)简单情况,线性可分情况,把问题转化为一个凸优化问题,可以用拉格朗日乘子法简化,然后用既有的算法解决;(2)复杂情况,线性不可分,用核函数将样本投射到高维空间,使其变成线性可分的情形,利用核函数来减少高纬度计算量。 一、SVM相关基本概念 分割超平
2017-09-19 16:45:07 867
转载 逻辑回归-参数迭代公式推导
原始出处:http://sbp810050504.blog.51cto.com/2799422/1608064在《机器学习实战》一书的第5章中讲到了Logistic用于二分类问题。书中只是给出梯度上升算法代码,但是并没有给出数学推导。故哪怕是简单的几行代码,依然难以理解。 对于Logistic回归模型而言,需要读者具有高等数学、线性代数、概率论和数理统计的基础的数学基础。高等数学部分能理解偏导数即
2017-09-19 09:59:02 1487 1
转载 cnn学习之卷积或者池化后输出的map的size计算
相信各位在学习cnn的时候,常常对于卷积或者池化后所得map的的大小具体是多少,不知道怎么算。尤其涉及到边界的时候。首先需要了解对于一个输入的input_height*input_widtht的图像,在卷积或者池化的时候,经常需要加padding,这是为了处理边界问题时而采用的一种方式,于是原输入就变成了下图所示:对于输出的size计算 如下图:out_height=((input_heigh
2017-09-13 11:02:48 3109
转载 CNN求导
Deep learning:五十一(CNN的反向求导及练习) 前言: CNN作为DL中最成功的模型之一,有必要对其更进一步研究它。虽然在前面的博文Stacked CNN简单介绍中有大概介绍过CNN的使用,不过那是有个前提的:CNN中的参数必须已提前学习好。而本文的主要目的是介绍CNN参数在使用bp算法时该怎么训练,毕竟CNN中有卷积层和下采样层,虽然和MLP的bp算法本质上相同
2017-09-12 11:06:16 956
原创 有一个数组,让找到两个不重复的连续子序列A,B ,求Max(Sum(A)-Sum(B)。
有一个数组,让找到两个不重复的连续子序列A,B ,求Max(Sum(A)-Sum(B)。int Maxsum(vector&A){ int sum=0,ma=-10000; vectorsumA; vectorsumB; for(int i=0;i<A.size();i++) { sum+=A[i]; ma=max(ma,sum); sumA.push_back(ma)
2017-09-06 21:57:59 2120
原创 深度学习面试题
1.梯度消失爆炸的原因神经网络梯度不稳定性:前面层的梯度是来自于后面层上梯度的乘乘积,当存在过多的层就出现了内在本质的不稳定梯度消失:sigmoid 导数最大值为1/4,abs(w)梯度爆炸:当权值过大,前面层比后面层梯度变化更快,会引起梯度爆炸问题。如何解决梯度消失或爆炸:ReLU替代sigmoid2. overfitting怎么解决dropout:开始训练的时候我们随机
2017-09-06 10:28:45 2352
转载 BN
/* 版权声明:可以任意转载,转载时请标明文章原始出处和作者信息 .*/ author: 张俊林Batch Normalization作为最近一年来DL的重要成果,已经广泛被证明其有效性和重要性。目前几乎已经成为DL的标配了,任何有志于学习DL的同学们朋友们雷迪斯俺的詹特曼们都应该好好学一学BN。
2017-09-06 10:11:04 369
转载 Faster-RCNN
↑↑↑↑目录在这里↑↑↑↑↑Faster RCNN github : https://github.com/rbgirshick/py-faster-rcnnFaster RCNN paper : https://arxiv.org/abs/1506.01497Bound box regression详解 : http://download.csdn.net/download/zy10340923
2017-09-05 14:55:58 526
转载 DenseNet
论文:Densely Connected Convolutional Networks 论文链接:https://arxiv.org/pdf/1608.06993.pdf 代码的github链接:https://github.com/liuzhuang13/DenseNet文章详解: 这篇文章是CVPR2017的oral,非常厉害。文章提出的DenseNet(Dense Convolution
2017-09-05 14:52:58 1020
转载 DenseNet学习笔记
ResNet:模型的深度加深,学习能力增强,因此更深的模型不应当产生比它更浅的模型更高的错误率。而这个“退化”问题产生的原因归结于优化难题,当模型变复杂时,SGD的优化变得更加困难,导致了模型达不到好的学习效果。即增加一个identity mapping(恒等映射),将原始所需要学的函数H(x)转换成F(x)+x,而作者认为这两种表达的效果相同,但是优化的难度却并不相同,作者假设F(x
2017-09-05 10:59:38 3568
原创 语意分割网络笔记
语意分割最初流行的深度学习方法是图像块分类,利用像素周围的图像块对每一个像素进行独立的分类。使用图像块分类的主要原因是分类网络通常是全连接层,要求固定尺寸的图像。使用卷积神经网络进行语以分割存在的另一个大问题是尺化层不仅扩大感受野,聚合语境,而且造成位置信息的丢失。编码-解码结构:编码器逐渐减少尺化层的空间维度,解码器逐步修复物体的细节和空间维度。编码器与解码器之间通常存在快捷连接,帮助解码器
2017-09-05 09:23:09 776
原创 Faster-RCNN 笔记
看了几篇Faster-RCNN介绍的博客和论文,之前也用过py-faser-rcnn跑目标检测实战。现在总结一下,首先有一篇比较好的博客介绍的比较详细:http://blog.csdn.net/zy1034092330/article/details/62044941Faster-RCNN把产生object proposals的过程在神经网络RPN中实现。结构上主要是特征提取生成feaur
2017-09-04 11:09:59 255
转载 图的存储结构-邻接矩阵
图的邻接矩阵存储方式是用两个数组来表示图。一个一维的数组存储图中顶点信息,一个二维数组(邻接矩阵)存储图中的边或弧的信息。#includeusing namespace std;#define MAXVEX 100/*最大顶点数*/#define INFINITY 65535//表示权值得无穷typedef int EdgeType;//边上权值类型typedef char Vert
2017-09-01 16:12:02 319
转载 二叉查找树中节点的删除
二叉树的重要性质:1.若左子树不空,则左子树上所有的结点的值均小于它的根结点的值2.如右子树不空,则右子树所有的结点的值均大于它的根结点的值3.左右子树也分别为二叉排序树删除结点需要考虑一下三种情况:1.需要删除的结点下并没有其他子节点2.需要删除的结点下有一个子节点(左或右)3.需要删除的结点下有两个子节点(左右结点都在)private Node
2017-08-31 15:34:49 335
转载 二叉树的创建与遍历
1.二叉树创建//创建二叉树, 先序顺序 int CreateBiTree(pBiTree *root) { char ch = 0; fflush(stdin); if ((ch = getchar()) == 'a')//控制树的结构 { *root = NULL; } else
2017-08-31 10:52:55 294
转载 归并排序算法
归并排序是将数列a[l,h]分成两半a[l,mid]和a[mid+1,h]分别进行归并排序,然后再将这两半合并起来。在合并两个数列,只要从比较两个数列的第一个数,谁小就先取谁,取了之后就在对应数列中删除这个数。然后再比较,如果有数列为空,那直接将另一个数列的数据依次取出即可。//将有序数组a[]和b[]合并到c[]中 void MemeryArray(int a[], int n, i
2017-08-30 22:37:38 193
转载 2017cvpr 语义分割论文
语义分割--Fully Convolutional DenseNets for Semantic Segmentation:http://blog.csdn.net/zhangjunhit/article/details/77334202 语义分割--Full-Resolution Residual Networks for Semantic Segmentation in Stree
2017-08-27 15:59:58 2380
原创 求最大整数子序列和 以及C++读取数据
在做笔试题遇到读取一串数据,然后保存到数组中,以回车键为结束符while((c=getchar())!='\n'){if(c!=' '){ungetc(c,stdin);cin>>data[i++];}}求最大整数子序列和,考虑了全部输入为负数时,就输出整数中最大数int maxsubsum(int size,int data[]){int ma
2017-08-26 16:14:59 731
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人