Caffe源码解析1:Blob

参考自:http://home.cnblogs.com/louyihang-loves-baiyan/

Caffe的万丈高楼(Net)是按照我们设计的图纸(prototxt)、用Blob这些砖块筑成一层层(Layer)楼房,最后通过SGD方法(Solver)进行简装修(Train)、精装修(Finetune)实现的。

首先查看Blob这个类(include/caffe/blob.hpp, 它的具体实现在\src\caffe\blob.cpp),Blob是作为Caffe中数据流通的一个基本类,网络各层之间的数据是通过Blob来传递的。这里整个代码是非常规范的,基本上条件编译,命名空间,模板类,各种不太经常看到的关键字如exlicit,inline等等。这里提一下explicit关键字的作用是禁止单参数构造函数的隐式转换,具体含义谷歌即可。还有inline的作用,iniline主要是将代码进行复制,扩充,会使代码总量上升,好处就是可以节省调用的开销,能提高执行效率。

1主要变量
shared_ptr<SyncedMemory> data_;
shared_ptr<SyncedMemory> diff_;
shared_ptr<SyncedMemory> shape_data_;
vector<int> shape_;
int count_;
int capacity_;

BLob只是一个基本的数据结构,因此内部的变量相对较少,首先是data_指针,指针类型是shared_ptr,属于boost库的一个智能指针,这一部分主要用来申请内存存储data,data主要是正向传播的时候用的。同理,diff_主要用来存储偏差,update data,shape_datashape_都是存储Blob的形状,一个是老版本一个是新版本。count表示Blob中的元素个数,也就是个数*通道数*高度*宽度,capacity表示当前的元素个数,因为Blob可能会reshape。

2主要函数
template <typename Dtype>
class Blob {
 public:
  Blob()
       : data_(), diff_(), count_(0), capacity_(0) {}

  /// @brief Deprecated; use <code>Blob(const vector<int>& shape)</code>.
  explicit Blob(const int num, const int channels, const int height,
      const int width);
  explicit Blob(const vector<int>& shape);

  /// @brief Deprecated; use <code>Reshape(const vector<int>& shape)</code>.
  void Reshape(const int num, const int channels, const int height,
      const int width);
  

其中Blob作为一个最基础的类,其中构造函数开辟一个内存空间来存储数据,Reshape函数在Layer中的reshape或者forward操作中来adjust dimension。同时在改变Blob大小时,内存将会被重新分配如果内存大小不够了,并且额外的内存将不会被释放。对input的blob进行reshape,如果立马调用Net::Backward是会出错的,因为reshape之后,要么Net::forward或者Net::Reshape就会被调用来将新的input shape 传播到高层

Blob类里面有重载很多个count()函数,主要还是为了统计Blob的容量(volume),或者是某一片(slice),从某个axis到具体某个axis的shape乘积。

inline int count(int start_axis, int end_axis)

并且Blob的Index是可以从负坐标开始读的,这一点跟Python好像

inline int CanonicalAxisIndex(int axis_index) 

对于Blob中的4个基本变量num,channel,height,width(从高到低可以直接通过shape(0),shape(1),shape(2),shape(3)来访问。

可以将他们理解成视频流,width和height分布表示图像的宽和高,channel表示颜色通道,num代表第几帧。

计算offset

inline int offset(const int n, const int c = 0, const int h = 0, const int w = 0)
inline int offset(const vector<int>& indices)

offset计算的方式也支持两种方式,一种直接指定n,c,h,w或者放到一个vector中进行计算,偏差是根据对应的n,c,h,w,返回的offset是((n * channels() + c) * height() + h) * width() + w

其实里面稍加留意可以看到有很多的

CHECK_GE
CHECK_LE
CHECK_EQ
....

等等看意思就知道了,肯定是在做比较Geater or Eqal这样的意思。这其实是GLOG,谷歌的一个日志库,Caffe里面用用了大量这样的宏,看起来也比较直观

void CopyFrom(const Blob<Dtype>& source, bool copy_diff = false,bool reshape = false);

从一个blob中copy数据 ,通过开关控制是否copy_diff,如果是False则copy data。reshape控制是否需要reshape。好我们接着往下看

inline Dtype data_at(const int n, const int c, const int h, const int w)
inline Dtype diff_at(const int n, const int c, const int h, const int w)
inline Dtype data_at(const vector<int>& index)
inline Dtype diff_at(const vector<int>& index)
inline const shared_ptr<SyncedMemory>& data()
inline const shared_ptr<SyncedMemory>& diff()

这一部分函数主要通过给定的位置访问数据,根据位置计算与数据起始的偏差offset,在通过cpu_data*指针获得地址。下面几个函数都是获得

const Dtype* cpu_data() const;
void set_cpu_data(Dtype* data);
const int* gpu_shape() const;
const Dtype* gpu_data() const;
const Dtype* cpu_diff() const;
const Dtype* gpu_diff() const;
Dtype* mutable_cpu_data();
Dtype* mutable_gpu_data();
Dtype* mutable_cpu_diff();
Dtype* mutable_gpu_diff();

可以看到这里有data和diff两类数据,而这个diff就是我们所熟知的偏差,前者主要存储前向传递的数据,而后者存储的是反向传播中的梯度

void Update();

看到update里面面调用了

caffe_axpy<float>(const int N, const float alpha, const float* X,float* Y)
{ cblas_saxpy(N, alpha, X, 1, Y, 1); }

这个函数在caffe的util下面的match-functions.cpp里面,主要是负责了线性代数库的调用,实现的功能是
\[Y=alpha * X +beta*Y \]
也就是blob里面的data部分减去diff部分

void FromProto(const BlobProto& proto, bool reshape = true);
void ToProto(BlobProto* proto, bool write_diff = false) const;

这两个函数主要是将数据序列化,存储到BlobProto,这里说到Proto是谷歌的一个数据序列化的存储格式,可以实现语言、平台无关、可扩展的序列化结构数据格式。Caffe里面数据的存储都采用这一结构,这里就不深入展开,具体可以参照这篇文章,对于proto的序列化和反序列都讲解的非常详细http://***/Article/34963

Dtype asum_data() const;//计算data的L1范数:绝对值之和
Dtype asum_diff() const;//计算diff的L1范数
Dtype sumsq_data() const;//计算data的L2范数:平方和
Dtype sumsq_diff() const;//计算diff的L2范数
void scale_data(Dtype scale_factor);//将data部分乘以一个因子
void scale_diff(Dtype scale_factor);//将diff部分乘一个因子

这几个函数是一些零散的功能,一看就懂。

void ShareData(const Blob& other);
void ShareDiff(const Blob& other);

这两个函数看名字就知道了一个是共享data,一个是共享diff,具体就是将别的blob的data和响应的diff指针给这个Blob,实现数据的共享。同时需要注意的是这个操作会引起这个Blob里面的SyncedMemory被释放,因为shared_ptr指针被用=重置的时候回调用响应的析构器。

bool ShapeEquals(const BlobProto& other);

这函数就不用说了,比较两个Blob形状是否相同
好了,基本上Blob的主要参数功能基本就涵盖在里面了。

3、用法示例

Blob<float> a;
cout << "Size:" << a.shape_string() << endl;
a.Reshape(1, 2, 3, 4);
cout << "Size:" << a.shape_string() << endl;
return 0;

结果:
Size:(0)
Size:1 2 3 4 (24)
创建完Blob对象后,可以通过mutable_cpu[gpu]_data[diff]函数修改其内部数值。
	float *p = a.mutable_cpu_data();
	for (int i = 0; i < a.count(); i++)
	{
		p[i] = i;
	}
	for (int u = 0; u < a.num(); u++)
	{
		for (int v = 0; v < a.channels(); v++)
		{
			for (int w = 0; w < a.height(); w++)
			{
				for (int x = 0; x < a.width(); x++)
				{
					cout << "a[" << u << "][" << v << "][" << w << "][" << x << "]=" << a.data_at(u, v, w, x) << endl;
				}

			}
		}
	}
结果:
a[0][0][0][0]=0
a[0][0][0][1]=1
a[0][0][0][2]=2
a[0][0][0][3]=3
a[0][0][1][0]=4
a[0][0][1][1]=5
a[0][0][1][2]=6
a[0][0][1][3]=7
a[0][0][2][0]=8
a[0][0][2][1]=9
a[0][0][2][2]=10
a[0][0][2][3]=11
a[0][1][0][0]=12
a[0][1][0][1]=13
a[0][1][0][2]=14
a[0][1][0][3]=15
a[0][1][1][0]=16
a[0][1][1][1]=17
a[0][1][1][2]=18
a[0][1][1][3]=19
a[0][1][2][0]=20
a[0][1][2][1]=21
a[0][1][2][2]=22
a[0][1][2][3]=23
 
a.asum_data()=276 //L1范数
a.sumsq_data()=4324 //L2范数
 
如果添加    float *q = a.mutable_cpu_diff();
	for (int i = 0; i < a.count(); i++)
	{
		p[i] = i;
		q[i] = a.count() - 1 - i; //diff 初始化为23,22,21...
		
	}
则结果变为:
a[0][0][0][0]=-23
a[0][0][0][1]=-21
a[0][0][0][2]=-19
a[0][0][0][3]=-17
a[0][0][1][0]=-15
a[0][0][1][1]=-13
a[0][0][1][2]=-11
a[0][0][1][3]=-9
a[0][0][2][0]=-7
a[0][0][2][1]=-5
a[0][0][2][2]=-3
a[0][0][2][3]=-1
a[0][1][0][0]=1
a[0][1][0][1]=3
a[0][1][0][2]=5
a[0][1][0][3]=7
a[0][1][1][0]=9
a[0][1][1][1]=11
a[0][1][1][2]=13
a[0][1][1][3]=15
a[0][1][2][0]=17
a[0][1][2][1]=19
a[0][1][2][2]=21
a[0][1][2][3]=23
实现了data=data-diff的操作
另外,将Blob内部值保存到磁盘,或者从磁盘载入内存,可以分别通过ToProto()、FromProto()实现,需要#include <caffe/util/io.hpp>
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值