自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 资源 (4)
  • 收藏
  • 关注

原创 Fast R-CNN 论文笔记

Ross Cirshick针对R-CNN的改进 发表于2015年的ICCV 作者给出的代码:有python和C++语言,基于caffe, 工程地址 https://guthub.com/rbgirshick/fast-rcnn. R-CNN的缺点: 1,是一个多级的pipeline,它有几个单独的流程:1,训练CNN;2训练SVM;3训练bbox。 2,训练太过耗费时间与空间(

2017-01-14 15:53:08 418

原创 LintCode: 解码方法

有一个消息包含A-Z通过以下规则编码 'A' -> 1 'B' -> 2 ... 'Z' -> 26 现在给你一个加密过后的消息,问有几种解码的方式 您在真实的面试中是否遇到过这个题?  Yes 样例 给你的消息为12,有两种方式解码 AB(12) 或者 L(12). 所以返回 2 class Solution { public:

2017-01-04 00:06:31 2155

原创 Lintcode: 形状工厂

形状工厂  描述 笔记  数据  评测 工厂模式是一种常见的设计模式。实现一个形状工厂 ShapeFactory 来创建不同的形状类。这里我们假设只有三角形,正方形和矩形三种形状。 您在真实的面试中是否遇到过这个题?  Yes 样例 ShapeFactory sf = new ShapeFactory(); S

2017-01-03 20:37:17 250

原创 排序:堆排序

//调整堆 //根部 n 左儿子 2*n+1 右儿子2*n+2 //时间复杂度O(lgn) void heap_adjust(int *A, int root, int size) { int lc = 2 * root + 1; int rc = 2 * root + 2; int max = root; if(lc A[root]) max = lc; if(rc A[m

2017-01-02 16:17:50 171

关于深度学习(DL)的9篇标志性文章

deep learning 的一些标志性文章 A Fast Learning Algorithm for Deep Belief Nets (2006) - 首 次提出layerwise greedy pretraining的方法,开创deep learning方向。 layerwise pretraining的Restricted Boltzmann Machine (RBM)堆叠起来构成 Deep Belief Network (DBN),其中训练最高层的RBM时加入了label。之后对整个DBN进行fine-tuning。在 MNIST数据集上测试没有严重过拟合,得到了比Neural Network (NN)更低的test error。 Reducing the Dimensionality of Data with Neural Networks (2006) - 提 出deep autoencoder,作为数据降维方法发在Science上。Autoencoder是一类通过最小化函数集对训练集数据的重构误差,自 适应地编解码训练数据的算法。Deep autoencoder模型用Contrastive Divergence (CD)算法逐层训练重构输入数据 的RBM,堆叠在一起fine-tuning最小化重构误差。作为非线性降维方法在图像和文本降维实验中明显优于传统方法。 Learning Deep Architectures for AI (2009) - Bengio关于deep learning的tutorial,从研究背景到RBM和CD再到数种deep learning算法都有详细介绍。还有丰富的reference。于是也有个缺点就是太长了。 A Practical Guide to Training Restricted Boltzmann Machines (2010) - 如果想要自己实现deep learning算法,这篇是不得不看的。我曾经试过自己写但是效果很不好,后来看到它才知道算法实现中还有很多重要的细节。对照网上的代码看也能更好地理解代码。 Greedy Layer-Wise Training of Deep Networks (2007) - 对DBN的一些扩展,比如应用于实值输入等。根据实验提出了对deep learning的performance的一种解释。 Why Does Unsupervised Pre-training Help Deep Learning? (2010) - 总结了对deep learning的pretraining作用的两种解释:regularization和help optimization。设计实验验证两种因素的作用。 Autoencoders, Unsupervised Learning, and Deep Architectures (2011) - 从理论角度对不同的Autoencoders作了统一分析的尝试。 On the Quantitative Analysis of Deep Belief Networks (2008) - 用annealed importance sampling (AIS)给出一种估计RBM的partition function的方法,从而能够估算p(x)以及比较不同的DBN。 Training Restricted Boltzmann Machines using Approximations to the Likelihood Gradient (2008) - 提 出用persistent contrastive divergence (PCD)算法逼近 maximum likelihood estimation的目标,从而可以得到更好的generative model。传统CD算法并不是以最大化 p(x)为目标的,另有paper证明CD算法不对应任何优化目标函数

2015-09-14

深度学习经典论文(A fast learning algorithm for deep belief nets)

Hinton于2006年发表具有革命性的深度信念网(Deep Belief Networks, DBNs)论文

2015-09-09

MFC 色彩编辑器

提供代码以及执行exe,实现photoshop色彩编辑器功能。能以RGB以及HSV模式编辑色彩。

2015-02-04

很基础的串口程序

是从一本串口书上看到的,非常适合刚刚开始搞串口的初学者。

2012-08-17

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除