自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 资源 (4)
  • 收藏
  • 关注

原创 LBP纹理提取 C++实现

原始LBP:       LBP的基本思想是对图像的像素和它局部周围像素进行对比后的结果进行求和。把这个像素作为中心,对相邻像素进行阈值比较。如果中心像素的亮度大于等于他的相邻像素,把他标记为1,否则标记为0。你会用二进制数字来表示每个像素,比如11001111。因此,由于周围相邻8个像素,你最终可能获取2^8个可能组合,被称为局部二值模式。公式表示如下所示:均匀化LBP:

2015-07-20 20:52:03 3329

原创 联合体的巧用

联合体的特征,以及在对结构体进行赋值时的巧用

2015-07-15 17:00:42 352

原创 xml文件读取

xml文件读取利用库tinyxml 示例xmllong intobjectnum = 0;    int i;    float* regnum;     TiXmlDocument*Document = new TiXmlDocument();    Document-> LoadFile(xmlpath);//获取对应路径上的

2015-07-13 21:01:04 338

原创 多类svm

1.一对多(one-versus-one)       速度较快,但是存在缺陷。2.一对一(one-versus-one)       有K个类,则两两一对构造k(k-1)/2个分类器,把待分对象用这些分类器进行判别,最后使用投票法,得票多的类别为最终类别。分类时要使用全部模型进行判别,速度慢,且存在拒分(多种类别得票相同时)。3.有向无环图(DAG-SVM)       类别

2015-07-13 20:55:15 559

原创 结构体数组的指针初始化与内存释放

结构体如下:Typedef structstudent{Int num;Char* name;} Tom,*Lily; 如果定义成Tom的形式,不需要为结构体分配内存,但是需要对name分配内存Tom.name =(char*)malloc(sizeof(char)*n);使用完毕要释放内存:free(Tom.name);  如果定义成*Lily

2015-07-13 20:49:36 10745 2

关于深度学习(DL)的9篇标志性文章

deep learning 的一些标志性文章 A Fast Learning Algorithm for Deep Belief Nets (2006) - 首 次提出layerwise greedy pretraining的方法,开创deep learning方向。 layerwise pretraining的Restricted Boltzmann Machine (RBM)堆叠起来构成 Deep Belief Network (DBN),其中训练最高层的RBM时加入了label。之后对整个DBN进行fine-tuning。在 MNIST数据集上测试没有严重过拟合,得到了比Neural Network (NN)更低的test error。 Reducing the Dimensionality of Data with Neural Networks (2006) - 提 出deep autoencoder,作为数据降维方法发在Science上。Autoencoder是一类通过最小化函数集对训练集数据的重构误差,自 适应地编解码训练数据的算法。Deep autoencoder模型用Contrastive Divergence (CD)算法逐层训练重构输入数据 的RBM,堆叠在一起fine-tuning最小化重构误差。作为非线性降维方法在图像和文本降维实验中明显优于传统方法。 Learning Deep Architectures for AI (2009) - Bengio关于deep learning的tutorial,从研究背景到RBM和CD再到数种deep learning算法都有详细介绍。还有丰富的reference。于是也有个缺点就是太长了。 A Practical Guide to Training Restricted Boltzmann Machines (2010) - 如果想要自己实现deep learning算法,这篇是不得不看的。我曾经试过自己写但是效果很不好,后来看到它才知道算法实现中还有很多重要的细节。对照网上的代码看也能更好地理解代码。 Greedy Layer-Wise Training of Deep Networks (2007) - 对DBN的一些扩展,比如应用于实值输入等。根据实验提出了对deep learning的performance的一种解释。 Why Does Unsupervised Pre-training Help Deep Learning? (2010) - 总结了对deep learning的pretraining作用的两种解释:regularization和help optimization。设计实验验证两种因素的作用。 Autoencoders, Unsupervised Learning, and Deep Architectures (2011) - 从理论角度对不同的Autoencoders作了统一分析的尝试。 On the Quantitative Analysis of Deep Belief Networks (2008) - 用annealed importance sampling (AIS)给出一种估计RBM的partition function的方法,从而能够估算p(x)以及比较不同的DBN。 Training Restricted Boltzmann Machines using Approximations to the Likelihood Gradient (2008) - 提 出用persistent contrastive divergence (PCD)算法逼近 maximum likelihood estimation的目标,从而可以得到更好的generative model。传统CD算法并不是以最大化 p(x)为目标的,另有paper证明CD算法不对应任何优化目标函数

2015-09-14

深度学习经典论文(A fast learning algorithm for deep belief nets)

Hinton于2006年发表具有革命性的深度信念网(Deep Belief Networks, DBNs)论文

2015-09-09

MFC 色彩编辑器

提供代码以及执行exe,实现photoshop色彩编辑器功能。能以RGB以及HSV模式编辑色彩。

2015-02-04

很基础的串口程序

是从一本串口书上看到的,非常适合刚刚开始搞串口的初学者。

2012-08-17

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除