caffe 主要是讲一下caffe对不同的数据类型的处理(二)

 caffe:

caffe最重要的就是学会配置文件(prototxt)的编写;要运行caffe,需要先创建一个模型(model),如比较常用的
lenet,Alex等,比如Data,Convolution,Pooling等,层之间的数据流动是以Blobs的方式进行(可以理解为泡泡往上浮)。
数据层:
数据层是每个模型的最底层,是模型的入口,不仅提供数据的输入,也提供数据从Blobs转换成别的格式进行保存输出。通常数据的预处理(如减去均值, 放大缩小, 裁剪和镜像等),也在这一层设置参数实现。
数据来源可以来自高效的数据库(如LevelDB和LMDB),也可以直接来自于内存。如果不是很注重效率的话,数据也可来自磁盘的hdf5文件和图片格式文件。
所有的数据层的都具有的公用参数:先看示例
layer {
  name: "cifar"        表示该层的名称,可随意取
  type: "Data"         层类型,如果是Data,表示数据来源于LevelDB或LMDB
  top: "data"          每一层用bottom来输入数据
  top: "label"         top来输出数据
  include  {           {一般训练的时候和测试的时候,模型的层是不一样的。include来指定。
    phase: TRAIN       该层(layer)是属于训练阶段的层,还是属于测试阶段的层,
  }                    如果没有include参数,则表示该层既在训练模型中,又在测试模型中。
 
  transform_param {    数据预处理
    scale: 0.00390625  scale为0.00390625,实际上就是1/255, 即将输入数据由0-255归一化到0-1之间
    mirror: 1  # 1表示开启镜像,0表示关闭,也可用ture和false来表示
mean_file: "examples/cifar10/mean.binaryproto" # 用一个配置文件来进行均值操作
crop_size: 227# 剪裁一个 227*227的图块,在训练阶段随机剪裁,在测试阶段从中间裁剪
}
 data_param {                       data_param部分,就是根据数据的来源不同,来进行不同的设置 
source: "examples/cifar10/cifar10_train_lmdb" batch_size: 100 backend: LMDB }}
data_param部分:
1:数据来自于数据库(如LevelDB和LMDB)
  
层类型(layer type):Data
必须设置的参数:
  source: 包含数据库的目录名称,如examples/mnist/mnist_train_lmdb
  batch_size: 每次处理的数据个数,如64
可选的参数:
  rand_skip: 在开始的时候,路过某个数据的输入。通常对异步的SGD很有用。
  backend: 选择是采用LevelDB还是LMDB, 默认是LevelDB.
layer {
  name: "mnist"
  type: "Data"
  top: "data"
  top: "label"
  include {
    phase: TRAIN
  }
  transform_param {
    scale: 0.00390625
  }
  data_param {
    source: "examples/mnist/mnist_train_lmdb"
    batch_size: 64
    backend: LMDB
  }
}
2、数据来自于内存
 
层类型:MemoryData
必须设置的参数:
 batch_size:每一次处理的数据个数,比如2
 channels:通道数
  height:高度
   width: 宽度
layer {
  top: "data"
  top: "label"
  name: "memory_data"
  type: "MemoryData"
  memory_data_param{
    batch_size: 2
    height: 100
    width: 100
    channels: 1
  }
  transform_param {   数据预处理
    scale: 0.0078125
    mean_file: "mean.proto"
    mirror: false
  }
}
 
3、数据来自于HDF5
 
层类型:HDF5Data
必须设置的参数:
source: 读取的文件名称
batch_size: 每一次处理的数据个数
示例:
 
layer {
  name: "data"
  type: "HDF5Data"
  top: "data"
  top: "label"
  hdf5_data_param {
    source: "examplesf5_classification/data/train.txt"
    batch_size: 10
  }
}
4、数据来自于图片
 
层类型:ImageData
必须设置的参数:
  source: 一个文本文件的名字,每一行给定一个图片文件的名称和标签(label)
  batch_size: 每一次处理的数据个数,即图片数
可选参数:
  rand_skip: 在开始的时候,路过某个数据的输入。通常对异步的SGD很有用。
  shuffle: 随机打乱顺序,默认值为false
  new_height,new_width: 如果设置,则将图片进行resize
 示例:
                                               无
5、数据来源于Windows
层类型:WindowData
必须设置的参数:
  source: 一个文本文件的名字
  batch_size: 每一次处理的数据个数,即图片数
示例:
layer {
  name: "data"
  type: "WindowData"
  top: "data"
  top: "label"
  include {
    phase: TRAIN
  }
  transform_param {
    mirror: true
    crop_size: 227
    mean_file: "data/ilsvrc12/imagenet_mean.binaryproto"
  }
  window_data_param {
    source: "examples/finetune_pascal_detection/window_file_2007_trainval.txt"
    batch_size: 128
    fg_threshold: 0.5
    bg_threshold: 0.5
    fg_fraction: 0.25
    context_pad: 16
    crop_mode: "warp"
  }
}
阅读更多
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/zhouguangfei0717/article/details/77311375
想对作者说点什么? 我来说一句

没有更多推荐了,返回首页

关闭
关闭
关闭