模式识别hw2-------基于matconvnet,用CNN实现人脸图片性别识别

主要来源模式识别课程大作业,本文首先感谢当初的助教和一起完毕作业的队友


matconvnet在matlab下封装了CNN常见算法,网址http://www.vlfeat.org/matconvnet/。本文採用matconvnet-1.0-beta16.tar.gz


第一题: 运用matconvet提供的mnist网络结构。

通过train目录中人脸图片训练网络(训练集)。通过val目录调整网络结构(验证集),最后通过test目录測试网络性能(測试集)


第一题: 设计一个神经网络,并与第一题比較


第一题

1.利用train和val目录进行训练和调參:

    利用matconvnet工具包中对mnist手写数字体设计的cnn结构。识别人脸性别。主程序为“cnn_mnist.m”,而cnn结构初始化在“cnn_mnist_init.m”中完毕。网络结构不须要又一次设计。仅仅须要在cnn_mnist.m中更改数据的输入,在cnn_mnist_init.m更改网络的输出。

    对于本题数据集。“train”中图片为训练集,“val”中为验证集,“test”中为測试集。首先利用“train”和“val”中人脸图片训练cnn网络权重,最后对训练好的网络用“test”中数据进行測试。

    本题主程序所在M文件为“cnn_mnist_new.m”;网络结构文件为“cnn_mnist_init_new.m”;“test_p1.m”为对训练好的网络进行測试的主程序。

   网络激活函数,在缺省情况下,默觉得“sigmoid”。

   首先在“cnn_mnist_init_new.m”中先拷贝“cnn_mnist.m”中代码,然后主要更改当中“getMnistImdb”函数。

因为mnist数据集中的图像数据28*28 。而本次实验中。所用图片大小为100*100 。因此,须要把这些数字图像压缩为28*28 。

   函数“getMnistImdb”中变量“x1”存储训练集中的图片。男性和女性的人脸图片给300张,其前300维存储男性,后300维存储女性;而变量“y1”存储训练集相应的标签。也是其前300维存储男性。后300维存储女性。这里须要注意的是。matconvnet不能把类别标签设置为“0”,否则对其它一些类别不能再识别;而本次作业为二分类问题。这里,男性相应于标签“1”,女性相应于标签“2”。同理,“x2”和“y2”相应于验证集中的数据,当中男性和女性图片各80张。

   作为说明,这里仅仅给出读取训练集数据中女性的演示样例代码:

%x1(:,:,1:300) stores female images in the train set
%x1(:,:,301:600) stores male images in the train set
x1=zeros(28,28,600);
%y1(1:300) stores female labels(1) in the train set
%y1(301:600) stores male labels(2) in the train set
y1=cat(2,ones(1,300),ones(1,300)+1);
%读取训练集图片-female
img_file_path=fullfile(vl_rootnn,'examples\mnist\image\image\new\train\female');
img_dir=dir(img_file_path);
for i=1:length(img_dir)-2    filename=sprintf('%s\\%s\\fy.bmp',img_file_path,img_dir(i+2).name);
    I=imread(filename);
    I=imresize(I,[28,28]); %将图片压缩为28*28大小
    x1(:,:,i)=I;
end

另外,为了防止过拟合,“cnn_mnist_init_new.m”中增加dropout。所谓“dropout”就是在训练过程中,随机让一些节点不參与计算,增加方式为:

net.layers{end+1} = struct('type', 'dropout', 'rate', 0.5);

而且迭代次数设置为300,最重要的是。要把“softmaxloss”前一全连接层中神经元输出节点改2。即:

net.layers{end+1} = struct('type', 'conv', ...
                           'weights', {{f*randn(1,1,500,2, 'single'), zeros(1,2,'single')}}, ...
                           'stride', 1, ...
                           'pad', 0) ;

执行“cnn_mnist_init_new.m”能够得到例如以下结果:




当中。“energy”训练过程中训练集和和验证集的总的误差能量之和;而“error”分别相应训练集和验证机的错误率。“top1err”是“softmax”层输出过程中最高得分项相应错误率,而因为是二分类问题,“top5err”(前5项得分最高项相应错误率)是没有意义的。

这里须要说明一下。因为是二分类问题,最后分类器一般“logistic regression”,而“softmax”是“logistic regression”升级版。支持多分类问题。因为,我们网络最后是全连接到2个神经元上。当中“1”代表女性。“2”代表男性(须要注意的是,运用“softmax”,matconvnet类别标签是不支持0的),而且通过“softmax”进行分类。

2.利用 test目录測试:

“test_p1.m”是对已经训练好的网络測试“test”目录下数据的主程序。

測试集共265张图片,当中男性56张。女性209张。读取数据过程和“cnn_mnist_new.m”类似,这里不再赘述。而载入网络主要过程:

train_imdb_path=fullfile(vl_rootnn,'\examples\mnist\problem1\problem-1-net-epoch\imdb.mat');
 load(net_path);
net.layers{end}.type = 'softmax';

当中,“net_path”为网络所在文件路径,而且要主要载入网络之后。要把原来的“softmaxloss”改为“softmax”。

而且处理測试集数据时候。要把測试集的数据减去训练集的均值(因为训练时候。预处理过程含有去均值的过程),当中,均值存储在训练集中的“imdb”结构体中。

演示样例代码例如以下:

test_set=single(test_set);
train_imdb_path=fullfile(vl_rootnn,'\examples\mnist\problem1\problem-1-net-epoch\imdb.mat');
train_imdb=load(train_imdb_path);
train_data_mean=train_imdb.images.data_mean;
test_set=bsxfun(@minus,test_set,train_data_mean);

而这个前向过程的输出主要利用函数“vl_simplenn”,示比例如以下:

err_cnt=0; 
best_scores=zeros(1,female_num+male_num);
err_id=zeros(1,female_num+male_num);
for i=1:(female_num+male_num)
    res=vl_simplenn(net,test_set(:,:,i));
    scores=squeeze(gather(res(end).x));
    [best_score, best_id] = max(scores);
    best_scores(i)=best_score;
    if abs(str2double(net.meta.classes.name{best_id})-test_label(i))>1e-1;
        err_cnt=err_cnt+1;
        err_id(i)=1;
    end
    
end
err_rate=err_cnt/(female_num+male_num);
实验结果。最低错误率为6.79%

执行test_p1.m文件对网络进行測试。本文件共反复10次实验,实验结果分布如上所看到的。

当中平均错误率为8.26%,最低错误率为6.79%。

第二题

1.利用train和val目录进行训练和调參:

与第一题类似。“my_cnn.m”是训练过程的主程序。“my_cnn_init.m”相应网络结构。“test_my_cnn.m” 为对训练好的网络进行測试的主程序。

读取图片数据与第一题类似,这里不再赘述。

而“my_cnn_init.m”中网络结构相应为:

该网络通过卷积和池化减少维度,而且网络最后全连接到两个神经元上。通过“softmax”进行分类。然后“relu”作为激活函数。训练时候一般须要"batch normalization"

核心代码例如以下:
net.layers = {} ;
%得到96*96
net.layers{end+1} = struct('type', 'conv', ...   
                           'weights', {{f*randn(5,5,1,20, 'single'), zeros(1, 20, 'single')}}, ...
                           'stride', 1, ...
                           'pad', 0) ;
net.layers{end+1} = struct('type', 'relu') ; 
%得到48*48
net.layers{end+1} = struct('type', 'pool', ...
                           'method', 'avg', ...
                           'pool', [2 2], ...
                           'stride', 1, ...
                           'pad', 0) ;
net.layers{end+1} = struct('type', 'dropout', 'rate', 0.2);
%得到44*44
net.layers{end+1} = struct('type', 'conv', ...
                           'weights', {{f*randn(5,5,10,20, 'single'),zeros(1,20,'single')}}, ...
                           'stride', 1, ...
                           'pad', 0) ;
%得到22*22
net.layers{end+1} = struct('type', 'pool', ...
                           'method', 'avg', ...
                           'pool', [2 2], ...
                           'stride', 1, ...
                           'pad', 0) ;
net.layers{end+1} = struct('type', 'dropout', 'rate', 0.2);
%得到18*18
net.layers{end+1} = struct('type', 'conv', ...
                           'weights', {{f*randn(5,5,20,40, 'single'),zeros(1,40,'single')}}, ...
                           'stride', 1, ...
                           'pad', 0) ;
net.layers{end+1} = struct('type', 'dropout', 'rate', 0.2);
%得到9*9
net.layers{end+1} = struct('type', 'conv', ...
                           'weights', {{f*randn(5,5,40,100, 'single'), zeros(1,100,'single')}}, ...
                           'stride', 1, ...
                           'pad', 0) ;
net.layers{end+1} = struct('type', 'relu') ;
%得到5*5
net.layers{end+1} = struct('type', 'conv', ...
                           'weights', {{f*randn(5,5,100,100, 'single'), zeros(1,100,'single')}}, ...
                           'stride', 1, ...
                           'pad', 0) ;
net.layers{end+1} = struct('type', 'relu') ;
%得到1*1
net.layers{end+1} = struct('type', 'conv', ...
                           'weights', {{f*randn(5,5,100,2, 'single'), zeros(1,2,'single')}}, ...
                           'stride', 1, ...
                           'pad', 0) ;
net.layers{end+1} = struct('type', 'softmaxloss') ;

执行“my_cnn.m”能够得到例如以下结果:



观察上图可知,当训练次数为第222次时,该网络对val集达到了最低预測错误率,大约为7%。其后有细微的上升趋势。故在下文中选择第222次网络结果进行test集的測试。


2.利用 test目录測试:

“test_p2.m”是对已经训练好的网络測试“test”目录下数据的主程序。測试集共265张图片。当中男性56张,女性209张。

载入网络主要过程:

train_imdb_path=fullfile(vl_rootnn,'\examples\mnist\problem2\problem-2-net-epoch\imdb.mat');
train_imdb=load(train_imdb_path);
net_path=fullfile(vl_rootnn, '\examples\mnist\problem2\problem-2-net-epoch\','net-epoch-222.mat') ;
load(net_path);
net.layers{end}.type = 'softmax';

利用函数“vl_simplenn”进行预測,本部分同问题一,故不再复述。


实验结果,最低错误率为4.53%

执行test_p2.m文件对网络进行測试。本文件共反复10次实验,实验结果分布如上所看到的。当中平均错误率为7.85%,最低错误率为4.53%。




一些思考:

为何不能分块:

在完毕第一题的时候。除了利用imresize函数对图像进行缩放外,我们还试图对图像进行分块处理,如将100*100的图像切割为16张28*28的子图。例如以下所看到的:


然后再对子图进行cnn训练,可是效果并不理想。甚至训练过程都不收敛:



分析这个现象的原因,我们觉得。人脸图像并不能切割为子块。当切割为子块时。人脸不再是人脸。而仅仅是各个部分离散的多张图片。当中男女图像各个部分高度类似。甚至我们人类在判别的时候也不能分清一个子图属于男还是属于女。

例如以下图第1排的第1张图片,我们非常难推断该子图属于女性。
图像的切割,造成了信息的丢失,部分之和再也不能取代总体。



为何28*28与100*100的精度近似相等



观察下图。左为第一题训练结果。右为第二题训练结果。能够看到,28*28与100*100大小的图片经过cnn训练后,对男女性别的推断,在精度上近似相等。

究其原因。我们觉得,图片大小的改变对人类来说,并不影响推断结果。丢失的信息不足以影响二值化推断。





代码已上传:http://download.csdn.net/detail/bizer_csdn/9827175
使用时候替换安装matconvnet目录下的examples目录


转载于:https://www.cnblogs.com/zhchoutai/p/8690819.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值