自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(48)
  • 收藏
  • 关注

转载 如何在caffe中添加新的Layer

转自:http://blog.csdn.net/kuaitoukid/article/details/41865803分类:CNNcaffe深度学习机器学习 (19730)  (30)本文分为两部分,先写一个入门的教程,然后再给出自己添加maxout与NIN的layer的方法(一)其实在Github上已经有答案了(https://github.c

2016-08-10 20:12:13 2308

转载 caffe中各个层——解析

转自:http://www.cnblogs.com/denny402/p/5071126.html所有的层都具有的参数,如name, type, bottom, top和transform_param请参看我的前一篇文章:Caffe学习系列(2):数据层及参数本文只讲解视觉层(Vision Layers)的参数,视觉层包括Convolution, Pooling, Local Re

2016-08-06 21:05:12 28731 3

转载 mnist_train_test.prototxt代码解析

上一篇介绍了如何准备数据集,做好准备之后我们先看怎样对训练好的模型进行Testing。先用手写体识别例子,MNIST是数据集(包括训练数据和测试数据),深度学习模型采用LeNet(具体介绍见http://yann.lecun.com/exdb/lenet/),由Yann LeCun教授提出。如果你编译好了Caffe,那么在CAFFE_ROOT下运行如下命令:

2016-08-06 20:11:10 2035

转载 caffe中的损失函数

损失函数,一般由两项组成,一项是loss term,另外一项是regularization term。J=L+R先说损失项loss,再说regularization项。1. 分对得分1,分错得分0.gold standard2. hinge loss(for softmargin svm),J=1/2||w||^2 + sum(max(0,1-yf(w,x)))

2016-08-06 19:16:32 3944

转载 solver.prototxt解析

*_slover.prototxtnet: "test.prototxt"#训练网络的配置文件test_iter: 100#test_iter 指明在测试阶段有多上个前向过程(也就是有多少图片)被执行。在MNIST例子里,在网络配置文件里已经设置test网络的batch size=100,这里test_iter设置为100,那在测试阶段共有100*100=10000 图

2016-08-06 12:35:29 1244

转载 caffe示例实现之5用CaffeNet训练与测试自己的数据集

转自:http://blog.csdn.net/liumaolincycle/article/details/48475479本文主要来自Caffe作者Yangqing Jia网站给出的examples。@article{jia2014caffe, Author = {Jia, Yangqing and Shelhamer, Evan and Donahue, Jeff and K

2016-08-05 17:06:52 3874 2

转载 .caffemodel的生成和利用

1)调用solver.prototxt生成.caffemodel和.solverstate     caffe中的bin文件夹里有caffe.exe,在上级目录中创建.bat文件,添加内容并保存运行:     ./bin/caffe.exe train --solver=examples/cifar10/cifar10_quick_solver.prototxtpause 

2016-08-05 11:21:18 9476 5

原创 caffemodel转matlab格式

1).MATLAB示例程序:%% Load the Caffe.Net and save in model file.def = fullfile('..', 'models', 'VGG_CNN_M_1024', 'test.prototxt');net = fullfile('..', 'output', 'default', 'voc_2007_trainval', ...'vgg

2016-08-05 11:07:52 4279 2

转载 mnist——prototxt

以最简单的mnist网络为例,因为数据集的不同则需要更改的参数也不同。在训练前最好在example下新建个文件夹命名为数据集的名称,然后把mnist下的5个文件:        lenet.prototxt        lenet_solver.prototxt        lenet_train.prototxt        lenet_test.proto

2016-08-05 10:52:53 980

转载 CNN基本问题

转自:http://blog.csdn.net/hungryof/article/details/50241351基本理解CNN降低训练参数的2大法宝?局部感受野、权值共享 局部感受野:就是输出图像某个节点(像素点)的响应所对应的最初的输入图像的区域就是感受野。 权值共享:比如步长为1,如果每移动一个像素就有一个新的权值对应,那么太夸张了,需要训练的参数爆炸似增长,

2016-08-04 22:15:15 1209

转载 编译MatCaffe

转自:http://blog.csdn.net/ws_20100/article/details/50525879使用如下命令编译MatCaffemake all matcaffe11之后,你可以用以下命令测试MatCaffe:make mattest11如果你在运行上面命令时,遇到如下错误:libstdc++.so.6 version ‘GLIBCXX_3.4.1

2016-07-31 16:43:48 1557

转载 使用GPU在caffe上进行CNN训练

转自:http://blog.csdn.net/ws_20100/article/details/488607491.配置caffe环境[请参考此篇博客:http://blog.csdn.net/ws_20100/article/details/48850449]本篇介绍如何在caffe环境下,实现"图像对图像"的卷积神经网络的训练。2.文件

2016-07-31 16:29:33 3416 2

转载 Caffe使用step by step:使用自己数据对已经训练好的模型进行finetuning

转自:http://www.cnblogs.com/empty16/p/4884774.html在经过前面Caffe框架的搭建以及caffe基本框架的了解之后,接下来就要回到正题:使用caffe来进行模型的训练。但如果对caffe并不是特别熟悉的话,从头开始训练一个模型会花费很多时间和精力,需要对整个caffe框架有一个很清楚的了解,难度比较高;同时,在使用数据迭代训练自己模型时会

2016-07-30 22:19:27 3599

转载 关于caffe

Caffe的网络定义Caffe中的网络都是有向无环图的集合,可以直接定义: name: "dummy-net"layers {name: "data" …}layers {name: "conv" …}layers {name: "pool" …}layers {name: "loss" …}数据及其导数以blobs的形式在层间流动。Caffe的各层定义

2016-07-30 21:26:04 493

原创 matlab-fullfile使用

f = fullfile('dir1', 'dir2', ..., 'filename')如:输入:f = fullfile('C:','Applications','matlab','fun.m')得到:f =C:\Applications\matlab\fun.m

2016-07-30 19:38:33 34736 2

原创 hdf5文件读取和写入

filename='F:\train.h5'; h5disp(filename);

2016-07-30 16:23:03 31008 6

转载 卷积神经网络CNN入门——代码

Deep Learning论文笔记之(五)CNN卷积神经网络代码理解zouxy09@qq.comhttp://blog.csdn.net/zouxy09          自己平时看了一些论文,但老感觉看完过后就会慢慢的淡忘,某一天重新拾起来的时候又好像没有看过一样。所以想习惯地把一些感觉有用的论文中的知识点总结整理一下,一方面在整理过程中,自己的理解也会更深,另一

2016-07-27 14:27:37 7812 1

转载 CNN卷积神经网络入门

Deep Learning论文笔记之(四)CNN卷积神经网络推导和实现zouxy09@qq.comhttp://blog.csdn.net/zouxy09          自己平时看了一些论文,但老感觉看完过后就会慢慢的淡忘,某一天重新拾起来的时候又好像没有看过一样。所以想习惯地把一些感觉有用的论文中的知识点总结整理一下,一方面在整理过程中,自己的理解也会更深,另

2016-07-27 14:26:05 2321 1

转载 k-svd字典学习

k-svd字典学习原文地址:http://blog.csdn.net/hjimce/article/details/50810129作者:hjimce一、字典学习字典学习也可简单称之为稀疏编码,字典学习偏向于学习字典D。从矩阵分解角度,看字典学习过程:给定样本数据集Y,Y的每一列表示一个样本;字典学习的目标是把Y矩阵分解成D、X矩阵:

2016-07-24 15:58:37 11517 6

原创 高斯混合模型----分类问题

已知高斯混合模型,对图像块进行分类:下面是高斯混合模型第K个高斯模型的概率分布函数:function y = loggausspdf2(X, sigma) %y=log(N(x|0,sigma)),y为高斯混合模型第k个高斯模型的概率分布函数(pdf);%sigma表示第k个高斯模型的协方差矩阵;;%X的每一列表示一个图像块,即行数表示维数(或称特征数),列数表示图像块

2016-07-15 19:19:08 5440 2

原创 统计学习方法----条件随机场3

条件随机场定义:给定随机变量X(观测序列)条件下,随机变量Y(状态序列)的马尔可夫随机场。                            (由此可以看出,条件随机场是条件概率分布问题,马尔可夫随机场是联合概率分布问题。)     已知马尔可夫随机场中的联合概率分布问题可以分解为场中各个最大团的函数乘积问题,线性链条件随机场中条件概率分布P(Y|X

2016-07-14 22:26:22 809

原创 统计学习方法---条件随机场2

概率无向图模型(马尔可夫随机场)的因子分解----------写作图中所有最大团C上的函数的乘积形式。

2016-07-14 22:13:46 522

原创 统计学习方法--条件随机场1

条件随机场:给定一组输入随机变量条件下,获得另一组输出随机变量的条件概率分布模型。特点:假设输出随机变量构成马尔可夫随机场。这里主要讲:线性链条件随机场概率无向图模型:又称马尔可夫随机场,是一个由无向图表示的联合概率分布。模型定义:成对马尔可夫性:              局部马尔可夫性:         全局马尔可夫性:   

2016-07-14 22:03:42 1145

转载 马尔可夫模型与条件随机场模型

条件随机场模型是由Lafferty在2001年提出的一种典型的判别式模型。它在观测序列的基础上对目标序列进行建模,重点解决序列化标注的问题。条件随机场模型既具有判别式模型的优点,又具有产生式模型考虑到上下文标记间的转移概率,以序列化形式进行全局参数优化和解码的特点,解决了其他判别式模型(如最大熵马尔科夫模型)难以避免的标记偏置问题。    条件随机场理论(CRFs)可以用于序列标记、数据分

2016-07-14 20:27:57 3324

原创 统计学习方法---隐马尔可夫模型2

这里仅关注其概率计算问题,概率计算问题有前向计算和后向计算两种方法,这里主要讲前向计算。

2016-07-14 16:53:48 513

原创 统计学习方法---隐马尔可夫模型1

隐马尔可夫模型三要素:初始状态概率向量,状态转移概率矩阵A 和观测概率矩阵B。隐马尔可夫模型作了两个假设:    1)任意时刻t的状态只依赖其前一时刻的状态;    2)任意时刻的观测只依赖该时刻的状态;

2016-07-14 16:38:14 731

原创 k-means--常用于为高斯混合模型设置初始值

k-means算法: 1、选取k个聚类质心点:mu1,mu2,.....,muk; 2、重复下面过程直到收敛:    对每个样例i,计算其应属于的类j:C(i)=argmin( ||x(i)-mu(j)||^2);    对每一个类j,重新计算该类的质心:mu(j)matlab自带kmeans.m函数IDX=kmeans(X,k);%将n行p列矩阵X分成k个聚类,n

2016-07-14 10:32:31 5051 1

原创 统计学习方法---高斯混合模型参数估计的EM算法

EM算法:对含有隐变量的概率模型参数的极大似然估计法;               每次迭代由两步组成:E步,求期望;M步,求极大;EM算法与初值的选择有关,选择不同的初值可能得到不同的参数估计值;               下例为从网上下的高斯混合模型(由两个高斯模型组成)参数获得的matlab代码:% EM_GMM_2 -- Compute e

2016-07-14 10:03:11 2484

转载 EM及高斯混合模型

本文就高斯混合模型(GMM,Gaussian Mixture Model)参数如何确立这个问题,详细讲解期望最大化(EM,Expectation Maximization)算法的实施过程。单高斯分布模型GSM多维变量X服从高斯分布时,它的概率密度函数PDF为:x是维度为d的列向量,u是模型期望,Σ是模型方差。在实际应用中u通常用样本均值来代替,Σ通常用样本方差来代替。很容易判断一个

2016-07-14 09:35:25 576

原创 统计学习方法----提升树

提升方法实际采用加法模型(即基函数的线性组合)和前向分布算法。以决策树为基函数的提升方法称为提升树。

2016-07-13 22:39:13 480

原创 统计学习方法---adaboost

AdaBoost 是一种迭代算法,其核心思想是针对同一个训练集训练不同的分类器,即弱分类器,然后把这些弱分类器集合起来,构造一个更强的最终分类器。(很多博客里说的三个臭皮匠赛过诸葛亮)     算法本身是改变数据分布实现的,它根据每次训练集之中的每个样本的分类是否正确,以及上次的总体分类的准确率,来确定每个样本的权值(增大被误分的样本的权值,保证下层分类器能够更充分地考虑这些被误分的样本)

2016-07-13 17:08:37 1214

原创 决策树--matlab自带函数

已知训练数据和训练数据类,获得决策树模型:t=treefit(train_X,y);%train_X的行数为样本数,列数为特征数;y的行数为样本数,1列表征类;t=classregtree(train_X,y):%用法与上一致,只是treefit为ID3算法,classregtree为CART算法;现在多使用classregtree;关于决策树的相关函数目前多放在cla

2016-07-13 12:22:00 43429 1

转载 Matlab实现决策树算法进行数字识别

转自:http://blog.csdn.net/geyalu/article/details/49951129决策树是一个与流程图相似的树状结构;其中,每一个内部结点都是对一个属性的测试,每一个分枝代表一个结果输出,而每个树叶结点代表一个特定的类或者类的分布。决策树最顶层结点称作根结点。一棵典型的决策树如图1所示。它表示概念“购买计算机”,即他预测顾客是否可能购买计算机。

2016-07-13 10:57:30 5216 1

原创 统计学习方法---决策树之ID3算法

ID3算法只有树的生成,所以该算法生成的树容易产生过拟合。

2016-07-12 22:13:52 1085

原创 统计学习方法----决策树

决策树模型:树形结构,选择较优的特征,对实例进行分类的过程。                    (可以与Adaboost算法结合使用,由弱分类器转化为强分类器)包含3个步骤:特征选择,决策树生成,决策树修剪。                     (决策树的生成对应模型的局部选择,决策树的修剪对应模型的全局选择)1)特征选择:     准则:信息增益(ID3算

2016-07-12 21:55:12 859

原创 几种分类方法简述

IDA--转换为特征空间;朴素贝叶斯---特征之间相互独立;决策树----挑选最优的特征;

2016-07-12 20:37:21 1434

原创 LDA和朴素贝叶斯相结合---图像分类

通过LDA方法将原始空间转换成特征空间,然后再用朴素贝叶斯方法进行分类;1)用LDA方法转换成特征空间,用Deng Cai, Xiaofei He, Yuxiao Hu, Jiawei Han, and Thomas Huang,  %   "Learning a Spatially Smooth Subspace for Face Recognition", CVPR'200

2016-07-12 19:19:47 3618 1

原创 样本不同特征构成的协方差矩阵

X:行数为样本数,一行为一个样本的各个特征(维数);sigma=cov(X);sigma为协方差矩阵,大小为维数*维数的方阵;(对于一个图像来说,划分的图像块的数目为样本数;一个图像块的数据点数为特征数);

2016-07-12 18:10:56 1497

转载 使用LDA线性判别分析进行多类的训练分类

转自:http://www.cnblogs.com/cfantaisie/archive/2011/03/25/1995849.htmlLDA使用条件:样本数大于特征维数,保证Sw非奇异。本文使用LDA作为分类器在matlab下做实验。  其中投影转换矩阵W按照LDA的经典理论生成,如下的LDA函数,并返回各个类的投影后的(k-1)维的类均值。LDA.m代码如下:

2016-07-11 20:40:01 6296 4

转载 LDA算法入门

转自http://blog.csdn.net/warmyellow/article/details/5454943 一. LDA算法概述:线性判别式分析(Linear Discriminant Analysis, LDA),也叫做Fisher线性判别(Fisher Linear Discriminant ,FLD),是模式识别的经典算法,它是在1996年由B

2016-07-11 20:35:00 1616

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除