自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

xceman1997的专栏

基础知识、c/c++语言、自然语言处理技术

  • 博客(35)
  • 资源 (2)
  • 收藏
  • 关注

转载 关于USERCF和ITEMCF的那点事

原文地址:http://xlvector.net/blog/?p=488关于USERCF和ITEMCF的那点事UserCF和ItemCF是协同过滤中最为古老的两种算法,在top-N的推荐上被广泛应用。这两个算法之所以重要,是因为他们使用了两个不同的推荐系统基本假设。UserCF认为一个人会喜欢和他有相同爱好的人喜欢的东西,而ItemCF认为一个人会喜欢和他以前喜欢的东西

2013-07-31 13:39:28 1051

转载 Deep Learning in NLP (一)词向量和语言模型

Deep Learning in NLP (一)词向量和语言模型Posted on 2013 年 7 月 29 日by licstar  这篇博客是我看了半年的论文后,自己对 Deep Learning 在 NLP 领域中应用的理解和总结,在此分享。其中必然有局限性,欢迎各种交流,随便拍。  Deep Learning 算法已经在图像和音频领域取得了惊人的成果,但是在 NL

2013-07-29 20:15:33 4713

转载 Topic Model的分类总结(LDA变种)

原文地址:http://hi.baidu.com/ouyanggaoyan/item/5b5c01d4c518871cd78ed0d7#713670-tsina-1-29064-128ff9f28d958dae738be418601ffbcdTopic Model的分类总结(LDA变种)Topic models主要可以分为四大类:1.无监督无层次

2013-07-28 00:34:04 3461

原创 【deep learning学习笔记】注释yusugomori的DA代码 --- dA.cpp -- 模型测试

测试代码。能看到,训练的时候是单个样本、单个样本的训练的,在NN中是属于“stochastic gradient descent”,否则,一批样本在一起的,就是“standard gradient descent”。void test_dA() { srand(0); double learning_rate = 0.1; double corruption_level = 0.

2013-07-21 15:30:50 1455 1

原创 【deep learning学习笔记】注释yusugomori的DA代码 --- dA.cpp -- 训练

说实话,具体的训练公式,我没有自己推导,姑且认为他写的代码是对的。总体上看,用bp的方法。特殊之处,在于输入层和输出层是完完全全的“同一层”。void dA::get_corrupted_input ( int *x, // the original input 0-1 vector -- input int *tilde_x, // the resulted 0-

2013-07-21 15:22:26 1741 2

原创 【deep learning学习笔记】注释yusugomori的DA代码 --- dA.cpp --模型准备

辅助函数和构造函数。#include #include #include "dA.h"using namespace std;// To generate a value between min and max in a uniform distributiondouble uniform(double min, double max) { return rand() /

2013-07-21 15:19:55 1353

原创 【deep learning学习笔记】注释yusugomori的DA代码 --- dA.h

DA就是“Denoising Autoencoders”的缩写。继续给yusugomori做注释,边注释边学习。看了一些DA的材料,基本上都在前面“转载”了。学习中间总有个疑问:DA和RBM到底啥区别?(别笑,我不是“学院派”的看Deep Learning理论,如果“顺次”看下来,可能不会有这个问题),现在了解的差不多了,详情见:【deep learning学习笔记】Autoencoder。之后,

2013-07-21 15:18:43 1465

原创 摩尔定律的失效,及微软该做的事情

夜深了,写一些这段时间的感受。总觉得,摩尔定律已经失效了,只不过没有人站出来大声讲而已——老的PC企业,如:十八摸、惠普、戴尔、宏碁、联想等,故意不说,否则还怎么卖硬件?新型的移动设备企业,三星、苹果等等,也不必说,手机卖得好才是王道,至于PC卖得怎么样,跟他们没有直接关系——用户可以同时拥有PC和手机。摩尔定律失效的表现就是,大家看看,自己多久没有因为硬件性能的原因而换过硬件(尤其是

2013-07-20 23:48:35 1133

转载 Denoising Autoencoders (dA)

原文地址:http://deeplearning.net/tutorial/dA.htmlDenoising Autoencoders (dA)NoteThis section assumes the reader has already read through Classifying MNIST digits using Logistic Regressio

2013-07-20 21:58:19 2939 1

转载 Deep Learning(深度学习)学习笔记整理系列之(四) --AutoEncoder自动编码器

原文地址:http://blog.csdn.net/zouxy09/article/details/8775524Deep Learning(深度学习)学习笔记整理系列[email protected]://blog.csdn.net/zouxy09作者:Zouxyversion 1.0 2013-04-08声明:1)该Deep Learning的学习

2013-07-20 21:57:03 3837

原创 【读书笔记】基于Autoencoder 网络的数据降维和重构

是一篇学术文章,我在学习autoencoder的时候找到的,看了看。主要是想弄清楚两个问题:1. autoencoder与RBM的区别;2. autoencoder最后训练出的结果怎么用。文章基本信息:题目:基于Autoencoder 网络的数据降维和重构作者:胡昭华单位:南京理工大学电子工程与光电技术学院时间:2009,发表于《电子与信息学报》笔记如下:

2013-07-20 18:18:34 6064 1

原创 【deep learning学习笔记】Autoencoder

继续学习deep learning,看yusugomori的code,看到里面DA(Denoising Autoencoders)和SDA(Stacked Denoising Autoencoders)的code,与RBM非常像。心里有个问题,autoencoder和RBM有什么区别和联系?又上网上找了些资料(前面转载那两篇),学习了一下。下面记一下笔记。1. autoencoder是

2013-07-20 18:02:49 8649

转载 自编码算法与稀疏性

转自ufldl,原文地址:http://deeplearning.stanford.edu/wiki/index.php/%E8%87%AA%E7%BC%96%E7%A0%81%E7%AE%97%E6%B3%95%E4%B8%8E%E7%A8%80%E7%96%8F%E6%80%A7目前为止,我们已经讨论了神经网络在有监督学习中的应用。在有监督学习中,训练样本是有类别标

2013-07-19 20:18:48 3208 1

转载 Autoencode --wikipedia

转自wikipedia,原文地址:http://en.wikipedia.org/wiki/AutoencoderFrom Wikipedia, the free encyclopediaAn auto-encoder is an artificial neural network used for learning efficient coding

2013-07-19 20:17:13 1586

转载 机器学习——深度学习(Deep Learning)

原文地址:http://blog.csdn.net/abcjennifer/article/details/7826917Deep Learning是机器学习中一个非常接近AI的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,最近研究了机器学习中一些深度学习的相关知识,本文给出一些很有用的资料和心得。Key Words:有监督学习与无监督学习,分类、回归,密度估计

2013-07-16 17:33:13 1278

原创 【deep learning学习笔记】注释yusugomori的LR代码 --- 模型测试

测试部分代码:void test_lr() { srand(0); double learning_rate = 0.1; double n_epochs = 500; int train_N = 6; int test_N = 2; int n_in = 6; int n_out = 2; // int **train_X; // int **t

2013-07-16 16:21:51 1360

原创 【deep learning学习笔记】注释yusugomori的LR代码 --- LogisticRegression.cpp

模型实现代码,关键是train函数和predict函数,都很容易。#include #include #include #include "LogisticRegression.h"using namespace std;LogisticRegression::LogisticRegression( int size, // N int in, //

2013-07-16 16:01:58 1489 1

原创 【deep learning学习笔记】注释yusugomori的LR代码 --- LogisticRegression.h

继续看yusugomori的代码,看逻辑回归。在DBN(Deep Blief Network)中,下面几层是RBM,最上层就是LR了。关于回归、二类回归、以及逻辑回归,资料就是前面转的几篇。套路就是设定目标函数(softmax损失函数),对参数求偏导数,得出权重更新公式等。LogisticRegression.h注释如下:class LogisticRegression {publ

2013-07-16 15:55:55 1853

转载 Machine Learning系列实验--SoftMax Regression

这个文章不错,有公式、有代码、有参考文献。原文地址:http://blog.sina.com.cn/s/blog_6982136301015asd.htmlSoftMax回归可以用来进行两种以上的分类,很是神奇!实现过程实在有点坎坷,主要是开始写代码的时候理解并不透彻,而且思路不清晰,引以为戒吧!SoftMax Regression属于指数家族,证明见( http://cs

2013-07-16 12:36:29 1078

转载 UFLDL教程 -- 译文版

原文地址:http://deeplearning.stanford.edu/wiki/index.php/UFLDL%E6%95%99%E7%A8%8B说明:本教程将阐述无监督特征学习和深度学习的主要观点。通过学习,你也将实现多个功能学习/深度学习算法,能看到它们为你工作,并学习如何应用/适应这些想法到新问题上。本教程假定机器学习的基本知识(特别是熟悉的监督学习,逻辑回归,梯度下降的想

2013-07-15 18:08:41 2122

转载 Softmax回归 -- from ufldl wiki

Stanford 教授 Andrew Ng 的 Deep Learning 教程的节选。原文地址:http://deeplearning.stanford.edu/wiki/index.php/Softmax%E5%9B%9E%E5%BD%92  Softmax回归Contents [hide]1 简介2 代价函数3 Softmax回归模型参数化的特点4 权重衰减5 Softmax回归与Logis

2013-07-15 18:06:36 1998

转载 对线性回归,logistic回归和一般回归的认识

在百度文库上看到的一篇材料,是斯坦福大学机器学习课程的笔记和总结,看着不错。原文地址:http://wenku.baidu.com/view/a7fb656d58fafab069dc02ed.html哦,word内容中的图片无法贴到这里。找了个html版本的。原文地址:http://www.cnblogs.com/jerrylead/archive/2011/03/05/1971867

2013-07-15 17:52:04 1234

原创 【deep learning学习笔记】读张春霞《受限波尔兹曼机简介》

这段时间在看RBM得东西,很多材料都罗列了很多共识、理论,显得自己很牛B的样子。不过到具体实现,get hands dirty,就没有了。BS这种装B资料!张春霞《受限波尔兹曼机简介》(收录于“中国科技论文在线”)是介绍RBM不可多得的好材料,理清理论思路,容易具体实现,给出实现经验,挺好的。下面是我的阅读笔记,基本上都是摘抄论文中的内容。0. 引言讲了讲历史,RBM对DBN的模拟

2013-07-14 18:33:56 5950 1

原创 【deep learning学习笔记】注释yusugomori的RBM代码 --- cpp文件 -- 模型测试

产生数据,调用上文的函数,训练RBM模型,并re-construct测试数据,用来验证训练的RBM模型。void test_rbm() { srand(0); double learning_rate = 0.1; int training_epochs = 1000; int k = 1; int train_N = 6; int test_N = 2;

2013-07-13 23:02:46 2503 4

原创 【deep learning学习笔记】注释yusugomori的RBM代码 --- cpp文件 -- 模型训练

关键是 CD-k(contrastive_divergence)算法的实现。// the CD-k algorithmvoid RBM::contrastive_divergence ( int *input, // the input visiable sample double lr, // the learning rate int k //

2013-07-13 23:00:55 2475 5

原创 【deep learning学习笔记】注释yusugomori的RBM代码 --- cpp文件 -- 准备工作

一些辅助函数,做模型的准备工作。#include #include #include "RBM.h"using namespace std;// To generate a value between min and max in a uniform distributiondouble uniform(double min, double max) { return ran

2013-07-13 22:59:16 2249

原创 【deep learning学习笔记】注释yusugomori的RBM代码 --- 头文件

百度了半天yusugomori,也不知道他是谁。不过这位老兄写了deep learning的代码,包括RBM、逻辑回归、DBN、autoencoder等,实现语言包括c、c++、java、python等。是学习的好材料。代码下载地址:https://github.com/yusugomori/DeepLearning。不过这位老兄不喜欢写注释,而且这些模型的原理、公式什么的,不了解的话就看不懂代码

2013-07-13 18:31:54 3971

原创 【deep learning学习笔记】Restricted Boltzmann Machine(待整理)

这几天看Deep Learning,看RBM(转载了一些资料,都是这几天看的,还有下载的资料,就不上传了),做做笔记。暂时没太强的逻辑,以后慢慢整理。1. RBM是两层神经网络,隐含层和显示层,两层之间有连接。2. 有三类参数:(1)两层之间的连接权值,|h| * |v| 个,|h| 和 |v|分别是隐含层和显示层的节点个数;(2)显示层节点的偏置;(3)隐含层节点的偏置3.

2013-07-11 00:32:03 1821

转载 Restricted Boltzmann Machine (RBM)限制波尔兹曼机

原文地址:http://blog.csdn.net/zouxy09/article/details/8781396对某些重要的点加粗体表示。假设有一个二部图,每一层的节点之间没有链接,一层是可视层,即输入数据层(v),一层是隐藏层(h),如果假设所有的节点都是随机二值变量节点(只能取0或者1值),同时假设全概率分布p(v,h)满足Boltzmann 分布,我们称这个模型是Res

2013-07-10 23:29:30 2074

转载 受限波尔兹曼机

原文地址:http://blog.csdn.net/celerychen2009/article/details/8984316深度神经网路已经在语音识别,图像识别等领域取得前所未有的成功。本人在多年之前也曾接触过神经网络。本系列文章主要记录自己对深度神经网络的一些学习心得。第三篇,谈谈自己对最近几年颇为流行的受限波尔兹曼网络RBM的理解。我不打

2013-07-10 22:46:55 1343

转载 Deep Learning for NLP 文章列举

原文地址:http://www.xperseverance.net/blogs/2013/07/2124/?utm_source=rss&utm_medium=rss&utm_campaign=deep-learning-for-nlp-%25e6%2596%2587%25e7%25ab%25a0%25e5%2588%2597%25e4%25b8%25be发表日期:2013 年

2013-07-10 09:08:31 1335

转载 深度学习软件资源列表

原文地址:http://blog.csdn.net/anshan1984/article/details/8583619深度学习( Deep Learning )软件资源列表Sason@CSDN列表源自http://deeplearning.net/software_links/,本文进行分类整理。星号代表对软件库的推荐度,考虑了适用范围、开发语言、更新

2013-07-08 00:55:19 1264

转载 Deep learning:十九(RBM简单理解)

原文地址:http://www.cnblogs.com/tornadomeet/archive/2013/03/27/2984725.html   这篇博客主要用来简单介绍下RBM网络,因为deep learning中的一个重要网络结构DBN就可以由RBM网络叠加而成,所以对RBM的理解有利于我们对DBN算法以及deep learning算法的进一步理解。Deep le

2013-07-07 23:16:39 1226

原创 【deep learning学习笔记】最近读的几个ppt(四)

这几个ppt都是在微博上看到的,是百度的一个员工整理的。《Deep Belief Nets》,31页的一个ppt1. 相关背景    还是在说deep learning好啦,如特征表示云云。列了一些参考文献,关于deep learning训练的,还不错。2. 基本概念    两种产生式神经网络:(1)sigmod belief network;(2)Boltzm

2013-07-07 12:27:00 1754

转载 Automatic differentiation

看算法看到这个了,转载一下,备忘。From Wikipedia, the free encyclopediaJump to: navigation, searchIn mathematics andcomputer algebra, automatic differentiation (AD), also calledalgorithmic

2013-07-03 00:26:54 2255

Learning Deep Architectures(slides) Bengio 2009

Learning Deep Architectures(slides) Bengio 2009

2013-06-16

Addison Wesley - Applied C++

Addison Wesley - Applied C++

2011-02-17

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除