- 博客(12)
- 收藏
- 关注
原创 theano lstm代码(lstm.py)理解
lstm的代码,和官方教程解释得不是很详细,故对 theano lstm进行一些分析理解。整体框架理解这份代码实现的功能是利用RNN(LSTM)对IMDB每部电影的评论页面的评论进行情感分类。
2016-01-20 23:59:00 8430 10
原创 Convolutional Neural Networks (CNNs / ConvNets)
CNN的网络结构最经使用CNN做regression,怎么确定网络的结构确实太头痛了,尽管已经有现有的论文里面已经又很多mode可以参考,例如AlexNet,VGGNet等等,但是和还是很难确定出一个最好的model,最近重新看Stanford的CNN的课程,发现其实已经有一部份已经讲了这个,故简单写写mark一下1.CNN的基本结构1.Convolutional layer : 原理很简单,就是图
2016-01-11 10:45:48 1501
转载 Ubuntu 系统备份及恢复
转载自Ubuntu下备份系统的方法今天不小心强行结束了一个我不知道用处的进程,结果造成进不了x界面,gdm启动不了,使用apt-get进行修复,结果几乎要把整个x界面有关的软件包删除,所以只好重装系统,为了防止下次出现类似的问题,所以把系统做了一个备份。备份的方法有两种,一种是通过一种软件进行被份,另外一种是通过命令行进行备份。软件备份的方法是下载一个叫UCloner的软件
2015-11-30 11:19:33 1264
原创 泰迪杯比赛总结--关于NLP的资源
1. NLP一些课程,主要是深度学习方面的http://nlp.stanford.edu/ 斯坦福大学nlp上面有很多资源CS224d: Deep Learning for Natural Language Processing斯坦福大学的课程,有讲义,视频在youtube上文本挖掘课程 含pptCS 6900: Unsupervised Feature Learnin
2015-05-24 17:34:53 1740
转载 机器学习(Machine Learning)&深度学习(Deep Learning)资料
转载自机器学习(Machine Learning)&深度学习(Deep Learning)资料希望转载的朋友,你可以不用联系我.但是一定要保留原文链接,因为这个项目还在继续也在不定期更新.希望看到文章的朋友能够学到更多.《Brief History of Machine Learning》介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机、神经网络、决策
2015-04-07 13:27:14 1918
原创 吴恩达 机器学习 神经网络编程代码练习笔记
编程要求:In this exercise, you will implement the backpropagation algorithm for neural networks and apply it to the task of hand-written digit recognition.1.总体的思路1.确定layer的层数,和每层layer的大小,这里确定包含最
2015-04-02 11:47:24 3261
转载 神经网络 反向传播算法(BP)
转载自deeplearning.stanford.edu/wiki/index.php/反向传播算法假设我们有一个固定样本集 ,它包含 个样例。我们可以用批量梯度下降法来求解神经网络。具体来讲,对于单个样例 ,其代价函数为:这是一个(二分之一的)方差代价函数。给定一个包含 个样例的数据集,我们可以定义整体代价函数为:以上公式中的第一项 是一个均方差项。
2015-03-29 01:20:47 1222
原创 吴恩达 机器学习 笔记 some tips on applying machine Learning
to deal with underfitting增加feature的数目(通过feature的平方,立方项等增加feature或者增加其他的feature)减小λ的值to deal with overfitting找更多的训练样本减少feature的数目用regulation,增加λ的值θevaluate hypothe
2015-03-25 12:30:06 1461
原创 吴恩达 机器学习笔记 Linear Regression with Multiple Variables
Linear Regression with Multiple Variablesmean normalization:将不同特征的数据scale统一目的:为了使梯度下降法更快地找到全局最小值实现方法:把原始数据做变换,(Xraw-mean)/(XrawMax-XrawMin)feature scaling:与mean normali
2015-03-25 12:28:16 1088
原创 《clean code》读书笔记
1.变量的命名 找更专业的词,避免时空洞的例如,size,get等,2.避免使用tmp,retval此类的词,tmp只是短期存在才用3.循环迭代 中 i,j,k等可以加前缀等(尤其是在有多个索引的情况下)4.在小的作用域中用短的变量名,全局变量等必须见名知意5.vi crtl +P单词补全功能6.getdata() 和computeData()的区别(需不需要耗代价)7.使
2015-01-17 00:57:19 565
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人