自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(81)
  • 收藏
  • 关注

原创 常用设计模式总结三 -------中介者模式,状态模式,外观模式

7.中介者模式简单的来说,就是为对象的交互提供一个中间的平台,使交互更加有序,对象也能更加简单。首先我们看一个通用的中介模式钟的两个基类,class Colleague{public: Colleague(Mediator *pMediator) : m_pMediator(pMediator){} virtual void Send(wchar_t...

2020-02-17 18:50:41 319

原创 常用设计模式总结二 ------- 命令模式,代理模式,享元模式

4 命令模式简单来说,命令模式就是把所有的操作用对象来进行封装目的:1.实现发送跟接收的解耦 2.能够获取更多的信息首先 每个command 有一个执行者。class Command{public: Command(){} Command(Barbecuer *receiver):p_receiver(receiver){} v...

2020-02-16 19:29:19 291

原创 常用设计模式总结一 ------- 观察者模式,策略模式,备忘录模式

1.策略模式简单来说,即将某一容易变化的属性进行隔离与复合什么叫隔离和符合?即用类中的成员变量来表示某一属性,这样用构造函数或者某一Setting的成员函数来设置这一成员变量目的:情况1:当有某一属性,需要增加某一种表达形式。直接进行该属性的实现,并通过setting进行设置即可 情况2: 当属性的表达发生变化,则不用所有地方代码都需要改变,直接改写其中一...

2020-02-16 16:22:05 245

转载 经典网络结构对比总结一

#####lenet: 都是5*5的卷积,padding = validx = tf.placeholder(tf.float32, (None, 32, 32, 1))Layer 1: Convolutional. The output shape should be 28x28x6.conv1_W = tf.Variable(tf.truncated_normal(shape=(...

2019-02-15 11:19:50 753 1

转载 SoftMax 回归 tmp

https://www.cnblogs.com/Determined22/p/6362951.htmlhttp://deeplearning.stanford.edu/wiki/index.php/Softmax%E5%9B%9E%E5%BD%92http://www.360doc.com/content/18/0407/21/32196507_743620592.shtml ...

2019-02-13 17:26:09 201

转载 PCA总结一

https://zhuanlan.zhihu.com/p/21580949不同的基可以对同样一组数据给出不同的表示,而且如果基的数量少于向量本身的维数,则可以达到降维的效果。如果我们必须使用一维来表示这些数据,又希望尽量保留原始的信息,你要如何选择?通过上一节对基变换的讨论我们知道,这个问题实际上是要在二维平面中选择一个方向,将所有数据都投影到这个方向所在直线上,用投影值表示原始记...

2019-02-13 16:19:51 370

转载 k-means

第一步 - 随机选择 K 个点作为点的聚类中心,这表示我们要将数据分为 K 类。 第二步 - 遍历所有的点 P, 算出 P 到每个聚类中心的距离,将 P 放到最近的聚类中心的点集中。遍历结束后我们将得到 K 个点集。 第三步 - 遍历每一个点集,算出每一个点集的中心位置,将其作为新的聚类中心。 第四步 - 重复步骤 2 和步骤 3,直到聚类中心位置不再移动。即 生成中心->重新聚类 ...

2019-02-13 15:51:42 148

转载 xgbt总结二

https://yxzf.github.io/2017/03/xgboost-v1/XGBoost有如下优点:显示的把树模型复杂度作为正则项加到优化目标中。 公式推导中用到了二阶导数,用了二阶泰勒展开。 实现了分裂点寻找近似算法。 利用了特征的稀疏性。 数据事先排序并且以block形式存储,有利于并行计算。 基于分布式通信框架rabit,可以运行在MPI和yarn上。 实现做了...

2019-02-13 14:26:11 2643

转载 GBDT 以及 xgboost 总结一

GBDT的核心就在于,每一棵树学的是之前所有树结论和的残差,这个残差就是一个加预测值后能得真实值的累加量。同时GBDT是以决策树(CART)为基学习器的GB算法,是迭代树,而不是分类树。https://blog.csdn.net/nathan1025/article/details/81174311http://djjowfy.com/2017/08/01/XGBoost%E7%9A%...

2019-02-13 11:29:06 264

转载 KNN总结一

即在样本空间中,计算目标与所有样本的距离,并选取k个来进行投票投票最多的类即为目标所属类,k为超参数。from numpy import *import operator# 创建一个数据集,包含2个类别共4个样本def createDataSet():    # 生成一个矩阵,每行表示一个样本    group = array([[1.0, 0.9], [1.0, 1.0], ...

2019-02-13 10:41:42 304

转载 SVM总结一

SVM算法认为图1中的分类器A在性能上优于分类器B,其依据是A的分类间隔比B要大。这里涉及到第一个SVM独有的概念“分类间隔”。在保证决策面方向不变且不会出现错分样本的情况下移动决策面,会在原来的决策面两侧找到两个极限位置(越过该位置就会产生错分现象),如虚线所示。虚线的位置由决策面的方向和距离原决策面最近的几个样本的位置决定。而这两条平行虚线正中间的分界线就是在保持当前决策面方向不变...

2019-02-13 10:33:39 399

转载 LR总结一

http://www.cnblogs.com/ModifyRong/p/7739955.htmlhttps://zhuanlan.zhihu.com/p/28415991逻辑回归假设数据服从伯努利分布,通过极大化似然函数的方法,以sigmoid作为假设函数,运用梯度下降来求解参数,来达到将数据二分类的目的。逻辑回归假设因变量 y 服从伯努利分布,而线性回归假设因变量 y 服从高斯分布。...

2019-02-12 17:42:16 410

原创 SSD总结一

目标检测近年来已经取得了很重要的进展,主流的算法主要分为两个类型:(1)two-stage方法,如R-CNN系算法,其主要思路是先通过启发式方法(selective search)或者CNN网络(RPN)产生一系列稀疏的候选框,然后对这些候选框进行分类与回归,two-stage方法的优势是准确度高;(2)one-stage方法,如Yolo和SSD,其主要思路是均匀地在图片的不同位置进行密集抽样,抽...

2019-02-12 16:06:58 384

原创 RCNN系列总结一

https://zhuanlan.zhihu.com/p/24780395#####R-CNN:流程主要分为四步:1. 利用选择性搜索(Selective Search)等区域生成算法在输入图像中提取Region Proposal(大概2000个);2. 将第一步中产生的每个Region Proposal分别resize后(也即图中的warped region,文章中是归一化为227...

2019-02-12 15:52:36 995

转载 yolo 总结一

https://blog.csdn.net/zfq740695564/article/details/79754578https://zhuanlan.zhihu.com/p/35325884yolov1:YOLO网络的设计比较简单,借鉴GoogLeNet模型,作者将一个完整的网络框架分为两个部分:24个卷积层用于抽取图像特征,两个全连接层用于分类和定位。有一点小的改进,YOLO网络没...

2019-02-12 14:41:01 1153

转载 MTCNN总结一

https://blog.csdn.net/u014380165/article/details/78906898https://zhuanlan.zhihu.com/p/38520597https://www.zhihu.com/question/274001027/answer/374213141Stage 1:采用全卷积神经网络,即P-Net,去获得候选窗体和边界回归向量。同时,...

2019-02-12 11:54:08 410

原创 facenet 总结一

Facenet是谷歌研发的人脸识别系统,该系统是基于百万级人脸数据训练的深度卷积神经网络,可以将人脸图像embedding(映射)成128维度的特征向量。以该向量为特征,采用knn或者svm等机器学习方法实现人脸识别。CASIA-WebFace数据集预训练的Facenet模型,LFW测试集准确率为0.98模型。 1.对图像质量(像素值)不敏感,即使80*80像素的图片生成的结果...

2019-02-12 11:40:13 2683 2

转载 lenet 到 densenet 总结 一

LeNet:输入尺寸:32*32 卷积层:3个 降采样层:2个 全连接层:1个 输出层:10个类别(数字0-9的概率)AlexNet: 1. 非线性激活函数:ReLU2. 防止过拟合的方法:Dropout,Data augmentation3. 大数据训练:百万级ImageNet图像数据4. 其他:GPU实现,LRN归一化层的使用Vgg:V...

2019-02-12 10:58:05 380

原创 c/c++常见面试题目

1.class 跟 struct的区别2.构造函数和系统函数是否可以被重载3.explicit构造函数4.复制构造函数,深拷贝与浅拷贝5.重载,覆盖(重写),隐藏。6.私有继承的作用7.多重继承是什么,有什么缺点8.虚函数与纯虚函数的区别9.构造函数调用虚函数10.运算符的重载11.临时对象的产生,以及构造函数的调用12.函数模版与类模版。13.智能...

2019-02-01 21:14:37 133

原创 算法与数据结构最优解实例总结

1.栈与队列1.1 猫狗队列      新增队列对象 class PetEnterQueue{    Pet pet,  int  count    }     count 为时间戳      ----》class DogCatQueue{   queue<PetEnterQueue > dog,queue<PetEnterQueue > dog cat, in...

2019-01-23 22:38:08 1076

原创 valgrind

./autogen.sh./configuremake; make install

2018-12-20 22:06:40 107

原创 centos 记录

1.pip install 的依赖库 在 /usr/lib/python2.7/site-packages/2.yum install 的依赖库/usr/lib643. make install 一般在 /lib64 一般情况下使用的是 libxxx.so gcc scan_image.c -g -o  scan_image -I /usr/include -L /usr/...

2018-12-20 22:02:10 92

原创 ubuntu opencv 编译遇到的问题

https://blog.csdn.net/xbs150/article/details/77840786    总的参考linux/videodev.h:没有那个文件或目录sudo apt-get install libv4l-devcd /usr/include/linuxsudo ln -s ../libv4l1-videodev.h videodev.hhttps://bl...

2018-10-09 12:31:56 253

原创 tensorflow API

1.conv1.1 tf.nn.conv2d  ----------- kernel,stride      [ksize,ksize,input,output]    [1,stride,stride,1]with tf.name_scope('conv1') as scope: kernel = tf.Variable(tf.truncated_normal([11, 11, 3...

2018-10-02 14:13:41 149

原创 RNN API

1输入:1.1 固定输入(图像)x = tf.placeholder(tf.float32, [None, height, width])y = tf.placeholder(tf.float32)# rnn模型y_conv = rnn_graph(x, rnn_size, out_size, width, height)1.2 非固定输入(诗句)inputs = tf.pla...

2018-09-25 15:28:02 303

原创 序列模型与注意力机制总结

1.翻译即有条件的语言模型2.1beam search  参数B2.2  beam search 的 概率表达式2.3 在扩展一次 3.beam search 改进,修改评价函数为 log,同时做normalization时,增加一个超参。4.Beam width B5. 误差分析比较 beam search 跟 rnn 引起误差的比例...

2018-09-25 11:07:13 928

原创 序列模型

1。命名实体识别问题(Named-entity recognition)x(i)(t) 即第i个样本的第t个位置的单词T(i) 即第i样本训练长度2. rnn基本表达式3.前向传播以及反向传播的示意图4. RNN多种结构5.6.RNN UNIT, 存在梯度消失问题(不能长时记忆)。7.有gate来记录是否要记忆。8.9.LST...

2018-09-24 16:18:08 163

原创 结构化机器学习2

1.误差分析,优先处理的部分2. 1标注错误再不同情况下的处理,即当标注错误(训练数据比较大)占比较少时,一般可以不处理。2.2 修改错误label时,要注意 dev 跟 test 要一起修改,保持一致分布。但是可能会造成训练集跟开发测试分布不一致。3. 不同划分上进行训练跟测试时。4.当训练集跟开发集和测试集分布不一致时,需要一个training-dev set。...

2018-09-23 19:15:41 147

原创 结构化机器学习项目总结

 1:单一实数评判:比如采用F1Score来代替Precision跟Recall。2.一个优化指标 subject to 多个优化条件3.设置dev and test set 最好遵循同一分布。4.1有时候 error 可能很低,但是error的种类是完全不能接受时,我们需要改变error的计算方式。(修改设定目标)4.2 又比如训练集跟开发集上准确率很高,但是...

2018-09-23 18:48:30 188

原创 faster rcnn windows配置过程

https://blog.csdn.net/u010548772/article/details/79071524问题1.AttributeError: ‘ProposalLayer’ object has no attribute ‘param_str_’         param_str_为param_str问题2:KeyError: ‘1’        cfg_key =...

2018-09-18 09:27:26 1172

原创 tensorflow复习

1.数据读取 tfrecord 调用 tf.train.slice_input_producer,从 本地文件里抽取tensor,准备放入Filename Queue(文件名队列)中; 调用 tf.train.batch,从文件名队列中提取tensor,使用单个或多个线程,准备放入文件队列; 调用 tf.train.Coordinator() 来创建一个线程协调器,用来管理之后在Se...

2018-09-16 19:40:55 303

原创 机器学习对比

https://blog.csdn.net/bitcarmanlee/article/details/80869312

2018-09-11 14:01:47 166

原创 常见问题

BN(Batch Normalization)层的作用(1)加速收敛(2)控制过拟合,可以少用或不用Dropout和正则(3)降低网络对初始化权重不敏感(4)允许使用较大的学习率如果我们使用去除相关性的算法,例如PCA和ZCA白化,数据不再是一个狭长的分布,随机分界面有效的概率就又大大增加了。Google在ICML文中描述的非常清晰,即在每次SGD时,通过mini-batch来对相...

2018-09-11 13:28:39 150

原创 常用loss以及L0,L1以及L2范数

如果是Square loss,那就是最小二乘了; 如果是Hinge Loss,那就是著名的SVM了; 如果是exp-Loss,那就是牛逼的 Boosting了; 如果是log-Loss,那就是Logistic Regression了;https://blog.csdn.net/luojun2007/article/details/78136615L0范数是指向量中非0的元素的个数。如果...

2018-09-11 13:18:11 2325

原创 权重初始化总结

https://www.cnblogs.com/makefile/p/init-weight.html?utm_source=itdadao&utm_medium=referral1.随机初始化权重2.Xavier权重初始化Xavier初始化可以帮助减少梯度弥散问题, 使得信号在神经网络中可以传递得更深。是最为常用的神经网络权重初始化方法。对于权值的分布:是一个让均值为0,...

2018-09-11 11:18:50 410

原创 深度学习优化方法

SGD:优点:算法收敛速度快(在Batch Gradient Descent算法中, 每轮会计算很多相似样本的梯度, 这部分是冗余的) 可以在线更新 有几率跳出一个比较差的局部最优而收敛到一个更好的局部最优甚至是全局最优缺点:容易收敛到局部最优,并且容易被困在鞍点Momentum:Momentum算法借用了物理中的动量概念,它模拟的是物体运动时的惯性,即更新的时候在一定程度...

2018-09-11 11:01:27 203

原创 逻辑回归总结

二分类问题的概率与自变量之间的关系图形往往是一个S型曲线同时逻辑回归与自适应线性网络非常相似,两者的区别在于逻辑回归的激活函数是Sigmoid function  ...

2018-09-11 09:45:52 142

原创 seetaface

该模块基于我们提出的一种结合经典级联结构和多层神经网络的人脸检测方法[1]实现,其所采用的漏斗型级联结构(Funnel-Structured Cascade,FuSt)专门针对多姿态人脸检测而设计,其中引入了由粗到精的设计理念,兼顾了速度和精度的平衡。如图1所示,FuSt级联结构在顶部由多个针对不同姿态的快速LAB级联分类器[2]构成,紧接着是若干个基于SURF特征的多层感知机(MLP)级联结构,...

2018-09-10 17:23:28 332

原创 yolov1-v2-v3 ssd

v1YOLO v1全部使用了均方差(mean squared error)作为损失(loss)函数。由三部分组成:坐标误差、IOU误差和分类误差v21.YOLO V2在V1基础上做出改进后提出。其受到Faster RCNN方法的启发,引入了anchor。YOLOv1利用全连接层的数据完成边框的预测,会导致丢失较多的空间信息,使定位不准2.同时使用了K-Means方法,对anch...

2018-09-09 17:16:20 582

原创 ffmpeg使用

        1.m_pIOContext = avio_alloc_context(m_pDecodeBuff,                                          BUF_SIZE,          // internal Buffer and its size                                          0,    ...

2018-09-09 15:48:34 121

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除