《深度学习——实战caffe》——caffe数据结构

caffe中一个CNN模型由Net表示,Net由多个Layer堆叠而成。

caffe的万丈高楼(Net)是由图纸(prototxt),用blob这些砖块筑成一层层(Layer),最后通过SGD方法(Solver)进行简装修(train)、精装修(finetune)实现的。

  • Blob数据结构介绍
    Blob提供了统一的存储器接口,TensorFlow中的Tensor也有对应的Blob数据结构。
    Caffe的基本存储单元是Blob,使用Blob格式的4维数组用于存储和交换数据,维度从低到高为(width_,height_,channels_,num_),用于存储数据或权值(data)和权值增量(diff),其中width_和height_分别表示图像的宽和高,channels_表示颜色通道RGB,num_表示第几个颜色通道。在进行网络计算时,每层的输出/输入都需要通过Blob对象缓冲。
//使用的是一个Blob的容器是因为某些Layer包含多组学习参数
vector<shared_ptr<Blob<Dtype>>> blobs_;
  
  
  • 1
  • 2
  • Blob数据结构描述
    src/caffe/proto/caffe.proto文件中,Blob描述如下:
// packed表示这些值在内存中紧密排布,没有空洞
message BlobShape{
    //只包括若干int64类型值,分别表示Blob每个维度的大小
    repeated int64 dim = 1 [packed = true];
}
message BlobProto{
    //包含一个BlobShape对象
    optional BlobShape shape = 7;
    //包含若干浮点元素,存储数据或者权值,元素数目由shape或者(num, channels, height, width)确定
    repeated float data = 5 [packed = true];
    //包含若干浮点元素,存储增量信息,维度与data数组一致
    repeated float diff = 6 [packed = true];
    //与data类似,类型为double
    repeated double double_data = 7 [packed = true];
    //与diff类似,类型为double
    repeated double double_diff = 8 [packed = true];
    //维度信息可选值,新版Caffe推荐使用shape,而不用后面的值
    optional int32 num = 1 [default = 0];
    optional int32 channels = 2 [default = 0];
    optional int32 height = 3 [default = 0];
    optional int32 width = 4 [default = 0];
}

  • 函数介绍
    Dtype data_at(const int n, const int c, const int h,const int w) const:通过n,c,h,w 4个参数来来获取该向量位置上的值。
    Dtype diff_at(const int n, const int c, const int h,const int w) const
    Dtype asum_data() const:绝对值之和,即L1-范式
    Dtype asum_diff() const
    Dtype sumsq_data() const:平方和,即L2-范式
    Dtype sumsq_diff() const
    void scale_data(Dtype scale_factor):data乘以一个标量
    void scale_diff(Dtype scale_factor)
    void ShareData(const Blob& other):共享一个Blob的data
    void ShareDiff(const Blob& other)
    const Dtype* cpu_data() const:只读CPU上的数据
    const Dtype* gpu_data() const
    void set_cpu_data(Dtype* data):设置CPU上的数据
    const Dtype* cpu_diff() const:只读CPU上的偏差
    const Dtype* gpu_diff() const
    Dtype* mutable_cpu_data():读写cpu上的数据
    Dtype* mutable_gpu_data()
    Dtype* mutable_cpu_diff():读写CPU上计算偏差
    Dtype* mutable_gpu_diff()
    void Update():更新变量值,使数据同步。
    void FromProto(const BlobProto& proto, bool reshape=true):反序列化函数,从BlobProto中恢复一个Blob对象
    void ToProto(BlobProto* proto, bool write_diff=false) const:序列化函数,将内存中的Blob对象保存到BlobProto中
    ToProto()和FromProto()可将Blob内部值保存到磁盘中或者从磁盘中载入到内存。
  • 使用ProtoBuffer而不使用结构体的原因:
    1)结构体的序列化/反序列化操作需要额外的编程实现,难以做到结构标准化;2)结构体中包含变长数据(一般用指向某个内存地址的指针)时,需要更加细致的工作保证数据的完整性。
    ProtoBuffer将编程最容易出现问题的地方加以隐藏,让机器自动处理,提高了程序的健壮性。
  • Blob模板类
    在include/caffe/blob.hpp中申明了Blob模板类,并封装了SyncedMemory类,const int kMaxBlobAxes = 32定义了Blob最大维数目。

//状态机变量:未初始化、CPU数据有效、GPU数据有效、已同步
enum SyncedHead {UNINITIALIZED, HEAD_AT_CPU, HEAD_AT_GPU, SYNCED}


<span style="color:#333333;">#include <vector>
#include <iostream>
#include <caffe/blob.hpp>

using namespace caffe;
using namespace std;

int main(void)
{
  Blob<float> a;
 
  cout<<"Size :"<<a.shape_string()<<endl;
  
  a.Reshape(1,2,3,4);
  
  cout<<"Size :"<<a.shape_string()<<endl;

 float *p = a.mutable_cpu_data();
  
  for(int i = 0; i < a.count(); i ++)
 {
   p[i] = i;
 }
 
 for(int u = 0; u < a.num(); u ++)
 {
  for(int v = 0; v < a.channels(); v ++) 
   {
     for(int w = 0; w < a.height(); w ++)
     {
	for(int x = 0; x < a.width(); x ++)
        {
	  cout<<"a["<<u<<"]["<< v << "][" << w << "][" << x << "] =" << a.data_at(u,v,w,x)<< endl;
        }
     }
   }
 }
  return 0; 
}
</span>

编译:

sudo g++ -o app blob_demo.cpp -I include/ -D CPU_ONLY -I .build_release/src/ -L build/lib/ -lcaffe -lglog -lboost_system 

就生成了可执行文件app

export LD_LIBRARY_PATH=build/lib/:$LD_LIBRARY_PATH

./app


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值