机器学习 深度学习
绝对不要看眼睛里的郁金香
博客分享记录自己学习轨迹与过程,很多转载,留下记忆,互相学习
展开
-
SVM --从“原理”到实现
零. 本文所有代码均能在我 github上的 DML 找到,顺便求点Star一.引入 从一开始接触机器学习,就感觉SVM(支持向量机 Support Vector Machine)就是高端大气上档次的代名词啊,在深度学习出来之前一直都力压ANN一头,是应用得最好的算法了,本文借着实现DML的机会实现一下。二.原理转载 2015-04-25 15:49:04 · 390 阅读 · 0 评论 -
Linux下的Libsvm使用历程录
Linux下的Libsvm使用历程录 首先下载Libsvm、Python和Gnuplot:libsvm的主页http://www.csie.ntu.edu.tw/~cjlin/libsvm/上下载libsvm (偶用3.1版本)python的主页http://www.python.org下载 python (偶用3.2.1版本)gnuplot的主页http:转载 2015-05-05 16:35:30 · 330 阅读 · 0 评论 -
LIBSVM使用方法及参数设置
http://hi.baidu.com/yuanding232323/item/dee80e1a495c0b2bf6625c88LIBSVM使用方法及参数设置主要参考了一些博客以及自己使用经验。收集来觉得比较有用的。LIBSVM 数据格式需要----------------------转载 2015-05-05 10:30:56 · 1398 阅读 · 0 评论 -
关于SVM参数c&g选取的总结帖[matlab-libsvm]
写了个程序 来选取SVM中参数 c和g的最佳值.[写这个的目的是方便大家用这个小程序直接来寻找 c和g的最佳值,不用再另外编写东西了. ] 其实原本libsvm C语言版本中有相应的子程序可以找到最佳的c和g,需装载python语言然后用py 那个画图 就可以找到最佳的c和g,我写了个matlab版本的.算是弥补了libsvm在matlab版本下的空缺. 测试数据 还是我视频 里的转载 2015-05-05 10:48:30 · 1519 阅读 · 0 评论 -
libsvm python Linux Ubuntu下编程操作实践
1.下载压缩包,压缩包解压后,有几个有用的东西,python中的svm.py和svmutil.py,tools中的四个文件(easy.py,grid.py,subset.py,checkdata.py)还有外面的makefile与几个c源文件。这几个文件用来生成可执行文件的呦。直接在该文件的目录下执行make就可以生成三个可执行文件。这时会提示出错:无g++的话,就要先在安装g++,apt-g原创 2015-05-05 18:42:24 · 368 阅读 · 0 评论 -
决策树--从原理到实现
算算有相当一段时间没写blog了,主要是这学期作业比较多,而且我也没怎么学新的东西接下来打算实现一个小的toy lib:DML,同时也回顾一下以前学到的东西当然我只能保证代码的正确性,不能保证其效率啊~~~~~~之后我会陆续添加进去很多代码,可以供大家学习的时候看,实际使用还是用其它的吧========================================转载 2015-04-25 15:46:16 · 356 阅读 · 0 评论 -
KNN(k-nearest neighbor algorithm)--从原理到实现
零.广告 本文所有代码实现均可以在 DML 找到,不介意的话请大家在github里给我点个Star一.引入 K近邻算法作为数据挖掘十大经典算法之一,其算法思想可谓是intuitive,就是从训练集里找离预测点最近的K个样本来预测分类 因为算法思想简单,你可以用很多方法实现它,这时效率就是我们需要慎重考虑的事情,最简单的自然是求出测试样本和转载 2015-04-25 15:47:21 · 520 阅读 · 0 评论 -
【面向代码】学习 Deep Learning(四) Stacked Auto-Encoders(SAE)
最近一直在看Deep Learning,各类博客、论文看得不少但是说实话,这样做有些疏于实现,一来呢自己的电脑也不是很好,二来呢我目前也没能力自己去写一个toolbox只是跟着Andrew Ng的UFLDL tutorial 写了些已有框架的代码(这部分的代码见github)后来发现了一个matlab的Deep Learning的toolbox,发现其代码很简单,感觉比较适转载 2015-04-25 15:46:52 · 388 阅读 · 0 评论 -
AdaBoost--从原理到实现
一.引入 对于Adaboost,可以说是久闻大名,据说在Deep Learning出来之前,SVM和Adaboost是效果最好的 两个算法,而Adaboost是提升树(boosting tree),所谓“提升树”就是把“弱学习算法”提升(boost)为“强学习算法”(语自《统计学习方法》),而其中最具代表性的也就是Adaboost了,貌似Adaboost的结构还和Neura转载 2015-04-25 15:48:06 · 279 阅读 · 0 评论 -
【面向代码】学习 Deep Learning(二)Deep Belief Nets(DBNs)
最近一直在看Deep Learning,各类博客、论文看得不少但是说实话,这样做有些疏于实现,一来呢自己的电脑也不是很好,二来呢我目前也没能力自己去写一个toolbox只是跟着Andrew Ng的UFLDL tutorial 写了些已有框架的代码(这部分的代码见github)后来发现了一个matlab的Deep Learning的toolbox,发现其代码很简单,感觉比较适转载 2015-04-25 15:44:32 · 439 阅读 · 0 评论 -
【面向代码】学习 Deep Learning(三)Convolution Neural Network(CNN)
最近一直在看Deep Learning,各类博客、论文看得不少但是说实话,这样做有些疏于实现,一来呢自己的电脑也不是很好,二来呢我目前也没能力自己去写一个toolbox只是跟着Andrew Ng的UFLDL tutorial 写了些已有框架的代码(这部分的代码见github)后来发现了一个matlab的Deep Learning的toolbox,发现其代码很简单,感觉比较适转载 2015-04-25 15:45:07 · 396 阅读 · 0 评论 -
【面向代码】学习 Deep Learning(一)Neural Network
==========================================================================================最近一直在看Deep Learning,各类博客、论文看得不少但是说实话,这样做有些疏于实现,一来呢自己的电脑也不是很好,二来呢我目前也没能力自己去写一个toolbox只是跟着Andrew Ng的转载 2015-04-25 15:43:59 · 420 阅读 · 0 评论 -
机器学习(Machine Learning)&深度学习(Deep Learning)资料
http://blog.csdn.net/zhoubl668/article/details/42921187希望转载的朋友,你可以不用联系我.但是一定要保留原文链接,因为这个项目还在继续也在不定期更新.希望看到文章的朋友能够学到更多.《Brief History of Machine Learning》介绍:这是一篇介绍机器学习历史的文章,介绍很全面,转载 2015-08-10 22:32:46 · 577 阅读 · 0 评论