奔跑吧Caffe(在MNIST手写体数字集上用Caffe框架训练LeNet模型)

数据集背景:

MNIST 是一个大型的手写体数字数据库,广泛应用于机器学习领域的训练和测试,由纽约大学Yann LeCun教授整理。

MNIST包括60000个训练集和10000测试集,图片固定尺寸为28*28。

LeNet模型背景:

LeNet是1986提出的,是最简单的CNN(卷积神经网路)模型,也是Caffe自带的第一个小例子用到模型。


所以综上,不难看出【在MNIST手写体数据集上用Caffe框架训练LeNet模型】简直就是深度学习届的helloworld啊哈哈哈

废话说完,看下Caffe官方给出的第一个小例子是怎么跑起来的。


第一步:下载MNIST数据集

大Caffe已经给我们写好了下载脚本,直接执行就是:

1
sudo  sh data /mnist/get_mnist .sh

当然可以用Vim打开看一下啦,主要是一些wget下载命令和gunzip解压命令啦O(∩_∩)O~

运行成功后,在 data/mnist/目录下多出了四个文件,这四个文件便是MNIST原始数据文件啦。

train-images-idx3-ubyte:  训练集样本 (9912422 bytes) 

train-labels-idx1-ubyte:  训练集对应标注 (28881 bytes) 

t10k-images-idx3-ubyte:   测试集图片 (1648877 bytes) 

t10k-labels-idx1-ubyte:   测试集对应标注 (4542 bytes)


第二步:数据格式转换

当然上面的原始数据格式为二进制文件,是不能在caffe中直接使用的,需要转换成Caffe可以识别的格式LMDB或者LEVELDB才行。

继续执行脚本咯:

1
sudo  sh examples /mnist/create_mnist .sh

如果想运行leveldb数据,请运行 examples/siamese/ 文件夹下面的程序,examples/mnist/ 文件夹是运行lmdb数据。两个都可以,反正当初在搭建环境的时候,这两个依赖包都安装过了。转换成功后,会在 examples/mnist/目录下,生成两个文件夹,分别是mnist_train_lmdb(训练集)和mnist_test_lmdb(测试集),里面存放的data.mdb和lock.mdb,就是我们需要的运行数据。

PS:至于为什么不直接读取原始数据,非要采用LMDB、LEVELDB呢?主要有两个原因:

1、原始数据类型多种多样,不可能用一套代码来搞定,转换是为了更好的统一,以简化读取层的实现;

2、使用LMDB、LEVELDB可以提高磁盘IO利用率。


第三步:开始训练模型

一切准备就绪后,开始训练。依然范特。。不对,依然脚本伺候:

1
sudo  sh examples /mnist/train_lenet .sh

等下,本宝热爱学习,我想看下脚本里面写的什么,用vi打开后发现:

1
2
#!/usr/bin/env sh
. /build/tools/caffe  train --solver=examples /mnist/lenet_solver .prototxt

可见啊,该脚本是调用了前面编译好的build/tools/caffe.bin二进制文件,参数--solver=examples/mnist/lenet_solver.prototxt  则是指定了训练超参数文件文件。

打开它:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
# The train/test net protocol buffer definition   // 参数描述文件
net:  "examples/mnist/lenet_train_test.prototxt"    // 位置
# test_iter specifies how many forward passes the test should carry out. 
# In the case of MNIST, we have test batch size 100 and 100 test iterations,
# covering the full 10,000 testing images. // 一共10000张测试图像,test batch size 100 每次测试处理100张
test_iter: 100   //  进行100次前向计算,test_iter* test  batch size =10000
# Carry out testing every 500 training iterations.
test_interval: 500  //  每训练500次,进行一次测试
# The base learning rate, momentum and the weight decay of the network.
base_lr: 0.01   // 基础学习率
momentum: 0.9   // 学习率 改变的动量
weight_decay: 0.0005  // 学习率衰减系数
# The learning rate policy  //学习策略 及相关参数
lr_policy:  "inv"
gamma: 0.0001
power: 0.75
# Display every 100 iterations
display: 100    // 迭代100次 打印输出一次结果
# The maximum number of iterations
max_iter: 10000    // 最大迭代数
# snapshot intermediate results
snapshot: 5000      //5000 次迭代保存一次临时模型,名称为lenet_iter_5000.caffemodel
snapshot_prefix:  "examples/mnist/lenet"
# solver mode: CPU or GPU // 使用CPU还是GPU
solver_mode: GPU    // 打开GPU

根据参数的意思再结合自己的情况,修改之。尤其是最后一句,如果没有显卡就老老实实的修改成CPU模式吧。

终于可以训练了,好鸡动:

1
sudo  sh examples /mnist/train_lenet .sh

大概20分钟吧,时间会给你好味道O(∩_∩)O~


第四步:用训练好的模型对数据进行预测

最终训练好的模型的权值保存在 examples/mnist/lenet_iter_10000.caffemodel 文件中,训练状态保存在 examples/mnist/lenet_iter_10000.solverstate 文件中。

下面开始利用训练好的LeNet模型权值文件对测试集进行预测:

1
2
3
4
. /build/tools/caffe  test 
-model examples /mnist/lenet_train_test .prototxt 
-weights examples /mnist/lenet_iter_10000 .caffemodel 
-iterations 100

OK,静等实验结果吧,最终识别率为99%。


总结:通过跑Caffe自带的这个小例子让我大致了解了Caffe的工作流程。




参考资料:

1、http://blog.csdn.net/wangchuansnnu/article/details/44341753

2、http://www.cnblogs.com/denny402/p/5075490.html

3、http://caffe.berkeleyvision.org/gathered/examples/mnist.html

4、http://blog.csdn.net/xbinworld/article/details/45619685

5、《深度学习-21天实战Caffe》 赵永科


评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值