根据Caffe官方文档介绍,caffe大致可以分为三层结构blob,layer,net。数据的保存,交换以及操作都是以blob的形式进行的,layer是模型和计算的基础,net整和并连接layer。
Blobs
Blob是Caffe的基本数据结构,具有CPU和GPU之间同步的能力,它是4维的数组(Num, Channels, Height, Width)。
设Blob数据维度为 number N x channel K x height H x width W,Blob是row-major保存的,因此在(n, k, h, w)位置的值物理位置为((n * K + k) * H + h) * W + w,其中Number/N是batch size。
Blob同时保存了data
和diff
(梯度),访问data
或diff
有两种方法:
1 2 | const Dtype* cpu_data() const; //不修改值 Dtype* mutable_cpu_data(); //修改值 |
Blob会使用SyncedMem自动决定什么时候去copy data以提高运行效率,通常情况是仅当gnu或cpu修改后有copy操作,文档里面给了一个例子:
1 2 3 4 5 6 7 8 9 10 11 12 13 | // Assuming that data are on the CPU initially, and we have a blob. const Dtype* foo; Dtype* bar; foo = blob.gpu_data(); // data copied cpu->gpu. foo = blob.cpu_data(); // no data copied since both have up-to-date contents. bar = blob.mutable_gpu_data(); // no data copied. // ... some operations ... bar = blob.mutable_gpu_data(); // no data copied when we are still on GPU. foo = blob.cpu_data(); // data copied gpu->cpu, since the gpu side has modified the data foo = blob.gpu_data(); // no data copied since both have up-to-date contents bar = blob.mutable_cpu_data(); // still no data copied. bar = blob.mutable_gpu_data(); // data copied cpu->gpu. bar = blob.mutable_cpu_data(); // data copied gpu->cpu. |
(顺便查了下一直有疑问foo是什么意思。。)
Layer
所有的Pooling,Convolve,apply nonlinearities等操作都在这里实现。在Layer中input data用bottom
表示output data用top
表示。每一层定义了三种操作setup
(Layer初始化), forward
(正向传导,根据input计算output), backward
(反向传导计算,根据output计算input的梯度)。forward
和backward
有GPU和CPU两个版本的实现。
Net
Net由一系列的Layer组成(无回路有向图DAG),Layer之间的连接由一个文本文件描述。模型初始化Net::Init()
会产生blob和layer并调用Layer::SetUp
。在此过程中Net
会报告初始化进程。这里的初始化与设备无关,在初始化之后通过Caffe::set_mode()
设置Caffe::mode()
来选择运行平台CPU或GPU,结果是相同的。
模型的格式
模型定义在.prototxt
文件中,训练好的模型在model
目录下.binaryproto
格式的文件中。模型的格式由caffe.proto
定义。采用Google Protocol Buffer可以节省空间还有它对C++和Pyhton的支持也很好。