matlab
文章平均质量分 69
778811
这个作者很懒,什么都没留下…
展开
-
matlab---调用.exe文件,批量写入读入
1)matlab调用.exe文件(蓝字)cd 路径;%用于转到程序所在路径;system(‘命令’);%运行程序命令;2)matlab存储.mat格式(绿字):save('路径');例:save('F:\TDI\20140710TDI_matlab\robust_deblur_executable\TDIx\blind_country9_x.mat');原创 2016-07-11 14:38:20 · 2666 阅读 · 0 评论 -
决策树--matlab自带函数
已知训练数据和训练数据类,获得决策树模型:t=treefit(train_X,y);%train_X的行数为样本数,列数为特征数;y的行数为样本数,1列表征类;t=classregtree(train_X,y):%用法与上一致,只是treefit为ID3算法,classregtree为CART算法;现在多使用classregtree;关于决策树的相关函数目前多放在cla原创 2016-07-13 12:22:00 · 43501 阅读 · 1 评论 -
k-means--常用于为高斯混合模型设置初始值
k-means算法: 1、选取k个聚类质心点:mu1,mu2,.....,muk; 2、重复下面过程直到收敛: 对每个样例i,计算其应属于的类j:C(i)=argmin( ||x(i)-mu(j)||^2); 对每一个类j,重新计算该类的质心:mu(j)matlab自带kmeans.m函数IDX=kmeans(X,k);%将n行p列矩阵X分成k个聚类,n原创 2016-07-14 10:32:31 · 5068 阅读 · 1 评论 -
高斯混合模型----分类问题
已知高斯混合模型,对图像块进行分类:下面是高斯混合模型第K个高斯模型的概率分布函数:function y = loggausspdf2(X, sigma) %y=log(N(x|0,sigma)),y为高斯混合模型第k个高斯模型的概率分布函数(pdf);%sigma表示第k个高斯模型的协方差矩阵;;%X的每一列表示一个图像块,即行数表示维数(或称特征数),列数表示图像块原创 2016-07-15 19:19:08 · 5466 阅读 · 2 评论 -
matlab-fullfile使用
f = fullfile('dir1', 'dir2', ..., 'filename')如:输入:f = fullfile('C:','Applications','matlab','fun.m')得到:f =C:\Applications\matlab\fun.m原创 2016-07-30 19:38:33 · 34797 阅读 · 2 评论 -
hdf5文件读取和写入
filename='F:\train.h5'; h5disp(filename);原创 2016-07-30 16:23:03 · 31040 阅读 · 6 评论 -
关于caffe
Caffe的网络定义Caffe中的网络都是有向无环图的集合,可以直接定义: name: "dummy-net"layers {name: "data" …}layers {name: "conv" …}layers {name: "pool" …}layers {name: "loss" …}数据及其导数以blobs的形式在层间流动。Caffe的各层定义转载 2016-07-30 21:26:04 · 501 阅读 · 0 评论 -
Caffe使用step by step:使用自己数据对已经训练好的模型进行finetuning
转自:http://www.cnblogs.com/empty16/p/4884774.html在经过前面Caffe框架的搭建以及caffe基本框架的了解之后,接下来就要回到正题:使用caffe来进行模型的训练。但如果对caffe并不是特别熟悉的话,从头开始训练一个模型会花费很多时间和精力,需要对整个caffe框架有一个很清楚的了解,难度比较高;同时,在使用数据迭代训练自己模型时会转载 2016-07-30 22:19:27 · 3608 阅读 · 0 评论 -
使用GPU在caffe上进行CNN训练
转自:http://blog.csdn.net/ws_20100/article/details/488607491.配置caffe环境[请参考此篇博客:http://blog.csdn.net/ws_20100/article/details/48850449]本篇介绍如何在caffe环境下,实现"图像对图像"的卷积神经网络的训练。2.文件转载 2016-07-31 16:29:33 · 3425 阅读 · 2 评论 -
Matlab实现决策树算法进行数字识别
转自:http://blog.csdn.net/geyalu/article/details/49951129决策树是一个与流程图相似的树状结构;其中,每一个内部结点都是对一个属性的测试,每一个分枝代表一个结果输出,而每个树叶结点代表一个特定的类或者类的分布。决策树最顶层结点称作根结点。一棵典型的决策树如图1所示。它表示概念“购买计算机”,即他预测顾客是否可能购买计算机。转载 2016-07-13 10:57:30 · 5253 阅读 · 1 评论 -
LDA和朴素贝叶斯相结合---图像分类
通过LDA方法将原始空间转换成特征空间,然后再用朴素贝叶斯方法进行分类;1)用LDA方法转换成特征空间,用Deng Cai, Xiaofei He, Yuxiao Hu, Jiawei Han, and Thomas Huang, % "Learning a Spatially Smooth Subspace for Face Recognition", CVPR'200原创 2016-07-12 19:19:47 · 3629 阅读 · 1 评论 -
获得一定精确度的数据matlab
vpa(变量名,精确度);例:ssim值在0-1之间; vpa(ssim,2);%获得小数点后两位的数据; psnr的值在20左右; vpa(psnr,4)%获得小数点后两位的数据;原创 2016-07-11 15:39:07 · 2119 阅读 · 0 评论 -
协方差矩阵
转载自http://blog.sina.com.cn/s/blog_4aa4593d01012am3.html统计学的基本概念均值:标准差:方差:例,[0,8,12,20]和[8,9,11,12],两个集合的均值都是10,但显然两个集合差别是很大的,计算两者的标准差,前者是8.3,后者是 1.8,显然后者较为集中,故其标准差小一些,标准差转载 2016-07-11 16:22:34 · 3816 阅读 · 0 评论 -
朴素贝叶斯--matlab自带工具箱的使用
朴素贝叶斯分类使用条件:其数据点的维数(即特征之间相互独立)。当属性之间相关性较小时,分类效率好;当属性之间相关性较大时,分类不如决策树。1)nb=NaiveBays.fit(training,class) %training训练数据,N*D的矩阵,行数为数据点数,列数为维数; %class训练数据类,行数为数原创 2016-07-11 14:52:21 · 16113 阅读 · 1 评论 -
LDA算法入门
转自http://blog.csdn.net/warmyellow/article/details/5454943 一. LDA算法概述:线性判别式分析(Linear Discriminant Analysis, LDA),也叫做Fisher线性判别(Fisher Linear Discriminant ,FLD),是模式识别的经典算法,它是在1996年由B转载 2016-07-11 20:35:00 · 1625 阅读 · 0 评论 -
样本不同特征构成的协方差矩阵
X:行数为样本数,一行为一个样本的各个特征(维数);sigma=cov(X);sigma为协方差矩阵,大小为维数*维数的方阵;(对于一个图像来说,划分的图像块的数目为样本数;一个图像块的数据点数为特征数);原创 2016-07-12 18:10:56 · 1506 阅读 · 0 评论 -
使用LDA线性判别分析进行多类的训练分类
转自:http://www.cnblogs.com/cfantaisie/archive/2011/03/25/1995849.htmlLDA使用条件:样本数大于特征维数,保证Sw非奇异。本文使用LDA作为分类器在matlab下做实验。 其中投影转换矩阵W按照LDA的经典理论生成,如下的LDA函数,并返回各个类的投影后的(k-1)维的类均值。LDA.m代码如下:转载 2016-07-11 20:40:01 · 6309 阅读 · 4 评论 -
编译MatCaffe
转自:http://blog.csdn.net/ws_20100/article/details/50525879使用如下命令编译MatCaffemake all matcaffe11之后,你可以用以下命令测试MatCaffe:make mattest11如果你在运行上面命令时,遇到如下错误:libstdc++.so.6 version ‘GLIBCXX_3.4.1转载 2016-07-31 16:43:48 · 1570 阅读 · 0 评论