- 博客(48)
- 收藏
- 关注
转载 如何在caffe中添加新的Layer
转自:http://blog.csdn.net/kuaitoukid/article/details/41865803分类:CNNcaffe深度学习机器学习 (19730) (30)本文分为两部分,先写一个入门的教程,然后再给出自己添加maxout与NIN的layer的方法(一)其实在Github上已经有答案了(https://github.c
2016-08-10 20:12:13 2316
转载 caffe中各个层——解析
转自:http://www.cnblogs.com/denny402/p/5071126.html所有的层都具有的参数,如name, type, bottom, top和transform_param请参看我的前一篇文章:Caffe学习系列(2):数据层及参数本文只讲解视觉层(Vision Layers)的参数,视觉层包括Convolution, Pooling, Local Re
2016-08-06 21:05:12 28779 3
转载 mnist_train_test.prototxt代码解析
上一篇介绍了如何准备数据集,做好准备之后我们先看怎样对训练好的模型进行Testing。先用手写体识别例子,MNIST是数据集(包括训练数据和测试数据),深度学习模型采用LeNet(具体介绍见http://yann.lecun.com/exdb/lenet/),由Yann LeCun教授提出。如果你编译好了Caffe,那么在CAFFE_ROOT下运行如下命令:
2016-08-06 20:11:10 2065
转载 caffe中的损失函数
损失函数,一般由两项组成,一项是loss term,另外一项是regularization term。J=L+R先说损失项loss,再说regularization项。1. 分对得分1,分错得分0.gold standard2. hinge loss(for softmargin svm),J=1/2||w||^2 + sum(max(0,1-yf(w,x)))
2016-08-06 19:16:32 3963
转载 solver.prototxt解析
*_slover.prototxtnet: "test.prototxt"#训练网络的配置文件test_iter: 100#test_iter 指明在测试阶段有多上个前向过程(也就是有多少图片)被执行。在MNIST例子里,在网络配置文件里已经设置test网络的batch size=100,这里test_iter设置为100,那在测试阶段共有100*100=10000 图
2016-08-06 12:35:29 1254
转载 caffe示例实现之5用CaffeNet训练与测试自己的数据集
转自:http://blog.csdn.net/liumaolincycle/article/details/48475479本文主要来自Caffe作者Yangqing Jia网站给出的examples。@article{jia2014caffe, Author = {Jia, Yangqing and Shelhamer, Evan and Donahue, Jeff and K
2016-08-05 17:06:52 3890 2
转载 .caffemodel的生成和利用
1)调用solver.prototxt生成.caffemodel和.solverstate caffe中的bin文件夹里有caffe.exe,在上级目录中创建.bat文件,添加内容并保存运行: ./bin/caffe.exe train --solver=examples/cifar10/cifar10_quick_solver.prototxtpause
2016-08-05 11:21:18 9494 5
原创 caffemodel转matlab格式
1).MATLAB示例程序:%% Load the Caffe.Net and save in model file.def = fullfile('..', 'models', 'VGG_CNN_M_1024', 'test.prototxt');net = fullfile('..', 'output', 'default', 'voc_2007_trainval', ...'vgg
2016-08-05 11:07:52 4293 2
转载 mnist——prototxt
以最简单的mnist网络为例,因为数据集的不同则需要更改的参数也不同。在训练前最好在example下新建个文件夹命名为数据集的名称,然后把mnist下的5个文件: lenet.prototxt lenet_solver.prototxt lenet_train.prototxt lenet_test.proto
2016-08-05 10:52:53 992
转载 CNN基本问题
转自:http://blog.csdn.net/hungryof/article/details/50241351基本理解CNN降低训练参数的2大法宝?局部感受野、权值共享 局部感受野:就是输出图像某个节点(像素点)的响应所对应的最初的输入图像的区域就是感受野。 权值共享:比如步长为1,如果每移动一个像素就有一个新的权值对应,那么太夸张了,需要训练的参数爆炸似增长,
2016-08-04 22:15:15 1222
转载 编译MatCaffe
转自:http://blog.csdn.net/ws_20100/article/details/50525879使用如下命令编译MatCaffemake all matcaffe11之后,你可以用以下命令测试MatCaffe:make mattest11如果你在运行上面命令时,遇到如下错误:libstdc++.so.6 version ‘GLIBCXX_3.4.1
2016-07-31 16:43:48 1570
转载 使用GPU在caffe上进行CNN训练
转自:http://blog.csdn.net/ws_20100/article/details/488607491.配置caffe环境[请参考此篇博客:http://blog.csdn.net/ws_20100/article/details/48850449]本篇介绍如何在caffe环境下,实现"图像对图像"的卷积神经网络的训练。2.文件
2016-07-31 16:29:33 3425 2
转载 Caffe使用step by step:使用自己数据对已经训练好的模型进行finetuning
转自:http://www.cnblogs.com/empty16/p/4884774.html在经过前面Caffe框架的搭建以及caffe基本框架的了解之后,接下来就要回到正题:使用caffe来进行模型的训练。但如果对caffe并不是特别熟悉的话,从头开始训练一个模型会花费很多时间和精力,需要对整个caffe框架有一个很清楚的了解,难度比较高;同时,在使用数据迭代训练自己模型时会
2016-07-30 22:19:27 3608
转载 关于caffe
Caffe的网络定义Caffe中的网络都是有向无环图的集合,可以直接定义: name: "dummy-net"layers {name: "data" …}layers {name: "conv" …}layers {name: "pool" …}layers {name: "loss" …}数据及其导数以blobs的形式在层间流动。Caffe的各层定义
2016-07-30 21:26:04 501
原创 matlab-fullfile使用
f = fullfile('dir1', 'dir2', ..., 'filename')如:输入:f = fullfile('C:','Applications','matlab','fun.m')得到:f =C:\Applications\matlab\fun.m
2016-07-30 19:38:33 34795 2
转载 卷积神经网络CNN入门——代码
Deep Learning论文笔记之(五)CNN卷积神经网络代码理解zouxy09@qq.comhttp://blog.csdn.net/zouxy09 自己平时看了一些论文,但老感觉看完过后就会慢慢的淡忘,某一天重新拾起来的时候又好像没有看过一样。所以想习惯地把一些感觉有用的论文中的知识点总结整理一下,一方面在整理过程中,自己的理解也会更深,另一
2016-07-27 14:27:37 7827 1
转载 CNN卷积神经网络入门
Deep Learning论文笔记之(四)CNN卷积神经网络推导和实现zouxy09@qq.comhttp://blog.csdn.net/zouxy09 自己平时看了一些论文,但老感觉看完过后就会慢慢的淡忘,某一天重新拾起来的时候又好像没有看过一样。所以想习惯地把一些感觉有用的论文中的知识点总结整理一下,一方面在整理过程中,自己的理解也会更深,另
2016-07-27 14:26:05 2328 1
转载 k-svd字典学习
k-svd字典学习原文地址:http://blog.csdn.net/hjimce/article/details/50810129作者:hjimce一、字典学习字典学习也可简单称之为稀疏编码,字典学习偏向于学习字典D。从矩阵分解角度,看字典学习过程:给定样本数据集Y,Y的每一列表示一个样本;字典学习的目标是把Y矩阵分解成D、X矩阵:
2016-07-24 15:58:37 11532 6
原创 高斯混合模型----分类问题
已知高斯混合模型,对图像块进行分类:下面是高斯混合模型第K个高斯模型的概率分布函数:function y = loggausspdf2(X, sigma) %y=log(N(x|0,sigma)),y为高斯混合模型第k个高斯模型的概率分布函数(pdf);%sigma表示第k个高斯模型的协方差矩阵;;%X的每一列表示一个图像块,即行数表示维数(或称特征数),列数表示图像块
2016-07-15 19:19:08 5466 2
原创 统计学习方法----条件随机场3
条件随机场定义:给定随机变量X(观测序列)条件下,随机变量Y(状态序列)的马尔可夫随机场。 (由此可以看出,条件随机场是条件概率分布问题,马尔可夫随机场是联合概率分布问题。) 已知马尔可夫随机场中的联合概率分布问题可以分解为场中各个最大团的函数乘积问题,线性链条件随机场中条件概率分布P(Y|X
2016-07-14 22:26:22 815
原创 统计学习方法--条件随机场1
条件随机场:给定一组输入随机变量条件下,获得另一组输出随机变量的条件概率分布模型。特点:假设输出随机变量构成马尔可夫随机场。这里主要讲:线性链条件随机场概率无向图模型:又称马尔可夫随机场,是一个由无向图表示的联合概率分布。模型定义:成对马尔可夫性: 局部马尔可夫性: 全局马尔可夫性:
2016-07-14 22:03:42 1152
转载 马尔可夫模型与条件随机场模型
条件随机场模型是由Lafferty在2001年提出的一种典型的判别式模型。它在观测序列的基础上对目标序列进行建模,重点解决序列化标注的问题。条件随机场模型既具有判别式模型的优点,又具有产生式模型考虑到上下文标记间的转移概率,以序列化形式进行全局参数优化和解码的特点,解决了其他判别式模型(如最大熵马尔科夫模型)难以避免的标记偏置问题。 条件随机场理论(CRFs)可以用于序列标记、数据分
2016-07-14 20:27:57 3333
原创 统计学习方法---隐马尔可夫模型1
隐马尔可夫模型三要素:初始状态概率向量,状态转移概率矩阵A 和观测概率矩阵B。隐马尔可夫模型作了两个假设: 1)任意时刻t的状态只依赖其前一时刻的状态; 2)任意时刻的观测只依赖该时刻的状态;
2016-07-14 16:38:14 737
原创 k-means--常用于为高斯混合模型设置初始值
k-means算法: 1、选取k个聚类质心点:mu1,mu2,.....,muk; 2、重复下面过程直到收敛: 对每个样例i,计算其应属于的类j:C(i)=argmin( ||x(i)-mu(j)||^2); 对每一个类j,重新计算该类的质心:mu(j)matlab自带kmeans.m函数IDX=kmeans(X,k);%将n行p列矩阵X分成k个聚类,n
2016-07-14 10:32:31 5068 1
原创 统计学习方法---高斯混合模型参数估计的EM算法
EM算法:对含有隐变量的概率模型参数的极大似然估计法; 每次迭代由两步组成:E步,求期望;M步,求极大;EM算法与初值的选择有关,选择不同的初值可能得到不同的参数估计值; 下例为从网上下的高斯混合模型(由两个高斯模型组成)参数获得的matlab代码:% EM_GMM_2 -- Compute e
2016-07-14 10:03:11 2498
转载 EM及高斯混合模型
本文就高斯混合模型(GMM,Gaussian Mixture Model)参数如何确立这个问题,详细讲解期望最大化(EM,Expectation Maximization)算法的实施过程。单高斯分布模型GSM多维变量X服从高斯分布时,它的概率密度函数PDF为:x是维度为d的列向量,u是模型期望,Σ是模型方差。在实际应用中u通常用样本均值来代替,Σ通常用样本方差来代替。很容易判断一个
2016-07-14 09:35:25 589
原创 统计学习方法---adaboost
AdaBoost 是一种迭代算法,其核心思想是针对同一个训练集训练不同的分类器,即弱分类器,然后把这些弱分类器集合起来,构造一个更强的最终分类器。(很多博客里说的三个臭皮匠赛过诸葛亮) 算法本身是改变数据分布实现的,它根据每次训练集之中的每个样本的分类是否正确,以及上次的总体分类的准确率,来确定每个样本的权值(增大被误分的样本的权值,保证下层分类器能够更充分地考虑这些被误分的样本)
2016-07-13 17:08:37 1225
原创 决策树--matlab自带函数
已知训练数据和训练数据类,获得决策树模型:t=treefit(train_X,y);%train_X的行数为样本数,列数为特征数;y的行数为样本数,1列表征类;t=classregtree(train_X,y):%用法与上一致,只是treefit为ID3算法,classregtree为CART算法;现在多使用classregtree;关于决策树的相关函数目前多放在cla
2016-07-13 12:22:00 43499 1
转载 Matlab实现决策树算法进行数字识别
转自:http://blog.csdn.net/geyalu/article/details/49951129决策树是一个与流程图相似的树状结构;其中,每一个内部结点都是对一个属性的测试,每一个分枝代表一个结果输出,而每个树叶结点代表一个特定的类或者类的分布。决策树最顶层结点称作根结点。一棵典型的决策树如图1所示。它表示概念“购买计算机”,即他预测顾客是否可能购买计算机。
2016-07-13 10:57:30 5253 1
原创 统计学习方法----决策树
决策树模型:树形结构,选择较优的特征,对实例进行分类的过程。 (可以与Adaboost算法结合使用,由弱分类器转化为强分类器)包含3个步骤:特征选择,决策树生成,决策树修剪。 (决策树的生成对应模型的局部选择,决策树的修剪对应模型的全局选择)1)特征选择: 准则:信息增益(ID3算
2016-07-12 21:55:12 874
原创 LDA和朴素贝叶斯相结合---图像分类
通过LDA方法将原始空间转换成特征空间,然后再用朴素贝叶斯方法进行分类;1)用LDA方法转换成特征空间,用Deng Cai, Xiaofei He, Yuxiao Hu, Jiawei Han, and Thomas Huang, % "Learning a Spatially Smooth Subspace for Face Recognition", CVPR'200
2016-07-12 19:19:47 3629 1
原创 样本不同特征构成的协方差矩阵
X:行数为样本数,一行为一个样本的各个特征(维数);sigma=cov(X);sigma为协方差矩阵,大小为维数*维数的方阵;(对于一个图像来说,划分的图像块的数目为样本数;一个图像块的数据点数为特征数);
2016-07-12 18:10:56 1506
转载 使用LDA线性判别分析进行多类的训练分类
转自:http://www.cnblogs.com/cfantaisie/archive/2011/03/25/1995849.htmlLDA使用条件:样本数大于特征维数,保证Sw非奇异。本文使用LDA作为分类器在matlab下做实验。 其中投影转换矩阵W按照LDA的经典理论生成,如下的LDA函数,并返回各个类的投影后的(k-1)维的类均值。LDA.m代码如下:
2016-07-11 20:40:01 6309 4
转载 LDA算法入门
转自http://blog.csdn.net/warmyellow/article/details/5454943 一. LDA算法概述:线性判别式分析(Linear Discriminant Analysis, LDA),也叫做Fisher线性判别(Fisher Linear Discriminant ,FLD),是模式识别的经典算法,它是在1996年由B
2016-07-11 20:35:00 1625
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人