- 博客(17)
- 资源 (1)
- 收藏
- 关注
转载 Brief intro to Deep Learning: Digit Classification Example
这篇主要介绍CNN,介绍的浅显易懂,t
2014-05-07 12:37:29 786
原创 Gist特征图像接口的修改
Gist特征在论文Evaluation of GIST descriptors for web-scale image search
2014-04-30 10:48:28 2826 1
转载 Deep learning these days
It seems that quite a few people with interest in deep learning think of it in terms of unsupervised pre-training, autoencoders, stacked RBMs and deep belief networks. It’s easy to get into this groov
2014-04-17 12:09:46 653
原创 在Mac下,深度学习CNN库Overfeat的配置及使用
Overfeat的主页:http://cilvr.nyu.edu/doku.php?id=software:overfeat:start1. 下载Overfeat的代码包:Download OverFeat-v04.tgz 2. 下载已经学习好的网络权重数据,大小两个网络的数据都有,共1G左右,解压后放在程序能够访问的目录。3. 安装依赖,并编译。# Install c
2014-03-24 19:30:38 3997 12
原创 Boost 库在Mac上的安装步骤
Boost是封装C代码的应用库,其封装的代码可以供python调用。尝试了很多在Mac上安装Boost的方法,要不就是失败,要不就是安装到/opt/local目录,现将其安装步骤整理如下:1. 现在源代码并解压:tar -xzf boost_1_55_0b1.tar.bz22. 进入解压的目录:cd boost_1_55_0b13. 运行bootst
2014-03-21 11:41:18 824
原创 LLC(Locality-constrained Linear Coding)基于OpenCV的C++源码实现
《Locality-constrained Linear Coding for Image Classification》的作者提供Matlab的代码实现,见http://www.ifp.illinois.edu/~jyang29/LLC.htm。下面是根据作者的代码,基于OpenCV,实现的C++版的LLC:cv::Mat BowModel::findKNN(cv::Mat &codeb
2014-02-28 18:04:40 2799 10
转载 If You Want Something You’ve Never Had, You’ve Got To Do Something You’ve Never Done
If you want something you’ve never had, you’ve got to do something you’ve never done.If you could do one thing to transform your life, I would highly recommend it be to find something you’re passi
2014-02-13 10:43:03 3001
翻译 《Machine Learning in Action》 读书笔记之五:AdaBoost Classification
1.bagging:对给定的原始数据集,“有放回”地随机取S次数量为N的数据集,这样得到S个新dataset,学习训练得到S个classifiers,对测试集进行均等投票得到分类结果。2.boosting:多个分类器是序列的方式训练得到的,每一个新的分类器是基于已有所有分类器的performance进行训练,使新分类器集中对付已有分类器分错的样本数据。最后的决策也不像bagging那样均等
2014-02-12 15:32:25 1085
翻译 《Machine Learning in Action》 读书笔记之四:逻辑回归(logistic regression)
1. sigmoid 函数:梯度上升(Gradient Ascent)与 梯度下降(Gradient Descent): 2. 循环迭代的梯度上升计算系数w:def loadDataSet(): dataMat = []; labelMat = [] fr = open('testS
2014-02-12 15:24:45 1035
翻译 《Machine Learning in Action》 读书笔记之三:朴素贝叶斯(naive Bayes)
1.之所以叫naive bayes,是因为该分类器基于一些naive的假设,即假设数据集的各个特征之间是独立无关的。2.利用贝叶斯分类器进行分档分类:1)由训练集文档生成词典:def loadDataSet(): postingList=[['my', 'dog', 'has', 'flea', 'problems', 'help', 'please
2014-02-12 15:20:04 941
翻译 《Machine Learning in Action》 读书笔记之二:决策树(ID3)
1. 对一个数据集,建立决策树,该如何split数据才更好呢,这里引入信息增益(Information Gain)的概念,指的是spilt数据前后信息的变化,在某位特征上split数据得到最大的信息增益,该特征就是最好的分离点。香农熵定义为信息的期望值,如下图所示:熵的计算python代码如下:from math import logdef cal
2014-02-12 15:03:57 816
翻译 《Machine Learning in Action》 读书笔记之一:K近邻分类器算法
1. 读取data 1234567891011121314def file2matrix(filename): fr = open(filename) numberOfLines = len(fr.readlines()) #get the number of l
2014-02-12 14:45:25 1183
原创 你好,世界
一直过着“Think Big,Do Small”的日子,心里总是怅然若失。 女儿的到来,给全家带来了欢乐,作为一个父亲,也觉得时光如白驹过隙,再不做点什么就老了。 每天新奇的想法有很多,但那些能够坚持的念头才能称之为“梦想”。 “一屋不扫,何以扫天下”,慢慢开始吧......
2014-02-12 14:27:06 636
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人