Machine Learning
lynnandwei
这个作者很懒,什么都没留下…
展开
-
机器学习算法的分类
现在有很多机器学习算法,困难的是进行方法归类,这里我们介绍两种方法进行思考和分类这些算法。第一组算法是学习风格,第二组是在形式和功能上类似。学习风格 一个算法基于问题建模有不同的方法,无论这个问题是基于经验或环境的交互,或者是基于我们需要输入的数据,学习风格是ML首先必须考虑的问题。 下面我们看看一些算法的主要学习风格或者称为学习模型。Supervised Learning转载 2015-01-28 15:12:22 · 3306 阅读 · 0 评论 -
学习笔记:inception V4 与resnet
原始的Inception模型,也就是GoogLeNet被称为Inception-v1,加入batch normalization之后被称为Inception-v2,加入factorization的idea之后,改进为Inception-v3。然后发现ResNet的结构可以加速训练,就有了之后的inception v4 和resnet v2.V4resne原创 2016-12-19 10:55:57 · 8280 阅读 · 0 评论 -
学习笔记:GoogLeNet Incepetion V2,V3
上次整理了googlenet V1,V2和V3在同一篇文章里进行描述的,所以我们也在这里一起学习。tensorflow发布了所有的模型https://github.com/tensorflow/models/blob/master/slim/README.md#pre-trained-models论文列表:[v1] Going Deeper wi原创 2016-12-15 17:54:18 · 3780 阅读 · 0 评论 -
Tensorflow在centos上安装记录
之前安装过 tensorflow 0.6,还没来得及玩就休假了。回来之后,tensorflow就已经是0.8了,支持分布式训练。于是着手先升级。系统里面之前装caffe,也装过很多tensorflow需要的库,所以一开始安装,各种需求 冲突还是有点头大。tensorflow有四种安装方式,之前直接用的pip install的方式进行安装。Pip Install: Install T原创 2016-06-20 17:19:33 · 3383 阅读 · 0 评论 -
学习笔记:自训练Cifar10网络数据结果
看了那么多深度网络的结构,于是上个月就开始自己拿数据来训练。训练的数据需要尽量多一点。首先拿101_ObjectCategories的数据来试一下。101_ObjectCategories里面有的类别数据量太少,原创 2015-05-05 17:51:11 · 4474 阅读 · 0 评论 -
学习笔记:深度学习网络特征逐层可视化
“ Deep Learning很吸引人,也很玄乎的一个点就是大家都说它可以提取到分级的逐层抽象的特征。但对我们来说,总是耳听为虚,眼见为实。所以,每当我们训练完一个深度模型后,我们还特别想把这个深度模型学到的东西给可视化出来,好弄明白它到底学到了什么东西,是不是有意义的,是不是像传说中的那样神奇” zouxy09 http://blog.csdn.net/zouxy0原创 2015-05-14 15:23:20 · 7052 阅读 · 1 评论 -
学习笔记:Caffe上配置和运行Cifar10的示例
CIFAR-10数据集含有6万个32*32的彩色图像,共分为10种类型,由 Alex Krizhevsky, Vinod Nair和 Geoffrey Hinton收集而来。包含50000张训练图片,10000张测试图片http://www.cs.toronto.edu/~kriz/cifar.html数据集的数据存在一个10000*3072 的 numpy数组中,单位是uint8s,原创 2015-03-12 16:58:48 · 13972 阅读 · 1 评论 -
Caffe安装过程记录(CentOS,无独立显卡,无GPU)
Caffe( http://caffe.berkeleyvision.org/ )是一个清晰而高效的深度学习框架,其作者是博士毕业于UC Berkeley的贾扬清(http://daggerfs.com/ ),他目前在Google工作。Caffe是纯粹的C++/CUDA架构,支持命令行、Python和MATLAB接口;可以在CPU和GPU直接无缝切换.原创 2015-01-28 17:34:18 · 20459 阅读 · 1 评论 -
学习笔记:Caffe上配置和运行MNIST
MNIST,一个经典的手写数字库,在Caffe上配置的第一个案例 1首先,获取minist的数据包。 这个版本是四个数据包cd $CAFFE_ROOT./data/mnist/get_mnist.sh#!/usr/bin/env sh# This scripts downloads the mnist data and unzips it.DIR="$( cd "$原创 2015-01-29 17:35:07 · 14759 阅读 · 2 评论 -
学习笔记:Caffe上LeNet模型理解
Caffe中用的模型结构是著名的手写体识别模型LeNet-5(http://yann.lecun.com/exdb/lenet/a35.html)。当年美国大多数银行就是用它来识别支票上面的手写数字的。能够达到这种商用的地步,它的准确性可想而知,唯一的区别是把其中的sigmoid激活函数换成了ReLU。为什么换成ReLU,上一篇blog中找到了一些相关讨论,可以参考。CNN的发展,关键就在原创 2015-03-05 17:23:17 · 5556 阅读 · 1 评论 -
学习笔记:AlexNet&Imagenet学习笔记
ImageNet(http://www.image-net.org)是李菲菲组的图像库,和WordNet 可以结合使用 (毕业于Caltech;导师:Pietro Perona;主页:http://vision.stanford.edu/~feifeili/) 总共有十万的synset, 其中2010的数据表示,有图像的非空synset是21841,每一类大约1000张图片,图片总数:14原创 2015-03-18 18:20:10 · 23579 阅读 · 3 评论 -
学习笔记-CIFAR10模型理解简述
整个结构中包含三个convolution layer、三个pooling layer和两个fully connected layer。每个层有多个Feature Map,每个Feature Map通过一种卷积滤波器提取输入的一种特征,然后每个Feature Map有多个神经元。首先是数据层,测试数据100张为一批(batch_size),后面括号内是数据总大小。如100*32*32原创 2015-03-16 10:53:53 · 7718 阅读 · 1 评论 -
学习笔记:GoogLeNet
GoogLeNet, 2014年ILSVRC挑战赛冠军,将Top5 的错误率降低到6.67%. 一个22层的深度网络,题目为:Going deeper with convolutions。。GoogLeNet这个名字也是挺有意思的,为了像开山鼻祖的LeNet网络致敬,他们选择了这样的名字。原创 2015-03-19 15:02:40 · 44123 阅读 · 12 评论 -
SparseAutoEncoder 稀疏自动编码器
Sparse Coding稀疏编码(Sparse Coding)是一种模拟哺乳动物视觉系统主视皮层V1区的视觉感知算法,NNSC(Non-Negative Sparse Coding,非负稀疏编码)是SC和非负矩阵分解相结合的一种编码算法。 对57个训练样本的每一幅图片随机抽样1500个4×4个图像小块,4×4可显示一个眼的余角,4×4比8×8精确的多,使用NNSC原创 2015-01-29 11:38:27 · 5507 阅读 · 0 评论 -
语义哈希(semanticHashing)
语义哈希(semanticHashing)是指将高维空间向量映射至低维汉明空间,并保持原空间向量相似性,使得新空间向量的汉明距离反映原空间向量相似度的哈希算法。语义哈希引入了近似的概念,认为在海量数据的搜索中,在大多数情况下,完全精确的查找并不是必须的,近似解己经足以满足用户绝大多数的要求,因而通过哈希算法迅速定位数据集中一定概率下与搜索关键词相关的数据,配合汉明空间相似度度量的快速性和索引结果容转载 2015-01-28 15:56:04 · 7144 阅读 · 0 评论 -
[干货]一张地铁图看懂人工智能算法发展(含代码)---转自AlphaTree
“ 或许你曾经困扰过:明明自家产品有自己的数据,明明算法模型很多开源,可为什么开发起来却问题多多? 要么拿到问题无从下手?”每一个大厨,心中都有自己的菜谱。要烹制一桌山珍海味,美味佳肴,自然要熟知三件事,原料(模型),调料(优化算法)和秘籍菜谱(这里常常只paper:paper会告诉你解决什么问题用什么模型与算法)。有了这三样,还要基本功扎实,拌、腌、炒、烧、蒸、炸、煮、煲基本手法样样不能少。(基...转载 2018-06-19 12:33:14 · 5812 阅读 · 0 评论