我的数据集不公开,分类代码就是这四个.m文件,具体使用说明可以看后文中的README
写在前面的碎碎念(可跳过)
想来想去还是把祖传代码给改了,目前只是调通了代码,但是分类accuracy只有80%左右,效果差了10%,但是本着做了工作就记录一下,不然就白做了的思想,可能后期还得学习一下svm的理论知识,把svm的参数调整一下,没准会更好。不过好像工作量挺大的样子,看来我又偷懒了。
下面这些和标题没啥关系,可以跳过,祖传代码是一份传奇的代码,我还没来的时候就有了,应该是参考以下这些博客的,感谢博主GoodboyBin,参考博客:https://www.cnblogs.com/xiangbin1207/p/6936993.html(这是一系列的博客,这个连接只是第一篇,总的内容包括了数据集怎么放置,然后还有代码,包括了hog和lbp特征,这是两种常见的纹理特征,理论知识网上特别多,LBP挺好懂的,HOG特征倒是卡了我很久,关于hog特征,有兴趣的可以看这个博客,写的超级无敌好https://blog.csdn.net/coming_is_winter/article/details/72850511,英语好可以看开山之作的原文:http://www.micc.unifi.it/delbimbo/wp-content/uploads/2011/03/reference_papers/Dalal.pdf)
关于祖传代码,因为是以前学长学姐们给我的,不是我自己的东西,我就不贴代码了,把那个参考博客多看几遍应该就会了,尤其是这篇:https://www.cnblogs.com/xiangbin1207/p/6937017.html,祖传代码里面的东西我自己就加了2个地方,关于特征提取的调整参数的,我把改动贴一下,其实就是很基本的调参,这些参数基本上见名知意,多看几篇论文和博客就会知道的,更为详细的内容可以在matlab的命令行里面输入 help extractHOGFeatures 和help extractLBPFeatures。
featuresTest2 = extractHOGFeatures(imageTrain,'CellSize',[4,4]);%原博客中只能调CellSize这个参数,
featureTest2 = extractHOGFeatures(scaleTestImage,'CellSize',[32 32],'BlockSize',[3 3],'NumBins',9);%我改进后的还能调BlockSize,和Numbins,嗯这些都是matlab自带的,只是你没写也是存在的就用了默认的参数而已,自己可调整
lbpFeatures = extractLBPFeatures(I,'CellSize',[16 16],'Normalization','None');%原博客没有使用归一化,也没有调整Upright的参数
featuresTest1= extractLBPFeatures(imageTrain,'CellSize',[32 32],'Normalization','L2','Upright',true);
然后又在后面加了一个绘制混淆矩阵的功能,代码还是学长学姐找的,来源于GitHub和何凌霄,之前有整理过了,在这里https://blog.csdn.net/qigeyonghuming_1/article/details/97934871
正题
libsvm分类部分
model=svmtrain(double_trainLabels,featuresTrain,'-c 2 -g 1');%参数还暂时不懂什么意义,后期要加强学习
[predict_label,accuracy]=svmpredict(double_testLabels,featuresTest,model);
predict_label=predict_label';%绘制混淆矩阵需要该变量是行向量
上面的代码是下文libsvm_hog_lbp.m的部分节选,matlab使用纹理特征(HOG+LBP)+libsvm对图片进行多分类,libsvm分类需要四个变量,就是代码里面的double_trainLabels
(代表训练集的标签)、featuresTrain
(代表训练集提取到的特征——即LBP+HOG特征)、double_testLabels
(代表测试集的标签)、feturesTest
(代表测试集提取到的特征——即LBP+HOG特征)注意,这四个变量都必须是double类型(双精度),否则代码会报错的。
predict_label是一个m2X1的列向量,绘制混淆矩阵的参数需要是行向量,所以我们将他进行转置。
划分数据集
%% 划分数据集
pwd='E:\libsvm-hog_svm\libsvm_更新的数据集8bitROI';
currentPath = pwd; % 获得当前的工作目录
imdsImage = imageDatastore(fullfile(pwd,'organ'),'IncludeSubfolders',true,'LabelSource','foldernames'); % 载入所有图片集合
numImages = length(imdsImage.Files); %图片总的张数
[imdsTrain,imdsTest] = splitEachLabel(imdsImage, 0.8,'randomized');%每个类都按比例随机拆分数据集,训练集和测试集80:20,
上面的代码是下文libsvm_hog_lbp.m的部分节选,祖传代码分两个文件夹分别存放训练集和测试集,而本代码则是使用一个文件夹存放所有数据集,文件夹内有若干个子文件夹,文件夹名是各个类的类别名,然后使用splitEachLabel
随机将整个数据集拆分为训练集和测试集,且数目比例大致为训练集80%,测试集20%,请参考 https://ww2.mathworks.cn/help/matlab/ref/matlab.io.datastore.imagedatastore.spliteachlabel.html
以及 https://blog.csdn.net/wanzi1122/article/details/80491937?utm_medium=distribute.pc_relevant.none-task-blog-title-3&spm=1001.2101.3001.4242
完整代码 :libsvm_hog_lbp.m
clear all;
clc;
tic
%% 划分数据集
pwd='E:\libsvm-hog_svm\libsvm_更新的数据集8bitROI';
currentPath = pwd; % 获得当前的工作目录
imdsImage = imageDatastore(fullfile(pwd,'dataset'),'IncludeSubfolders',true,'LabelSource','foldernames'); % 载入所有图片集合
numImages = length(imdsImage.Files); %图片总的张数
[imdsTrain,imdsTest] = splitEachLabel(imdsImage, 0.8,'randomized');%每个类都按比例随机拆分数据集,训练集和测试集80:20,
%% 提取训练集的特征和训练集样本标签
% 这一步我原先以为是没有用的,因为它只是I,只是一张但是后来发现,他只是要得到lbp的特征列数,也就是最后一句,这么做的目的是为了初始化特征矩阵
imageSize = [200 200];% 对所有图像进行此尺寸的缩放 参数1:图片大小
%
I = readimage(imdsTrain,1);
scaleImage = imresize(I,imageSize);
m =size(scaleImage,3);%如果是彩色图片转成灰度图片,灰度图片则不处理
if m>1
scaleImage=rgb2gray(scaleImage);
end
%lbp的参数是以下三个,直接在这改,就不用在函数里一个一个的改动了
lbp_CellSize=32;
Normalization='L2';%参数有'None','L2'
Upright=true;%参数有true,false
%hog的参数是以下三个,
hog_CellSize=32;
hog_BlockSize=3;
NumBins=9;
%构造和初始化两种特征向量矩阵
numTrainImages = length(imdsTrain.Files); %训练集样本数
numTestImages = length(imdsTest.Files)