解释两个部分:
一:预处理图像的leveldb构建
输入:一批图像和label (2和3)
输出:leveldb (4)
指令里包含如下信息:
- conver_imageset (构建leveldb的可运行程序)
- train/ (此目录放处理的jpg或者其他格式的图像)
- label.txt (图像文件名及其label信息)
- 输出的leveldb文件夹的名字
- CPU/GPU (指定是在cpu上还是在gpu上运行code)
LRN好像很少见
二:Local Response Normalization (LRN)局部响应值归一化层
- Layer type:
LRN
- CPU Implementation:
./src/caffe/layers/lrn_layer.cpp
- CUDA GPU Implementation:
./src/caffe/layers/lrn_layer.cu
- Parameters (
LRNParameter lrn_param
)- Optional
local_size
[default 5]: the number of channels to sum over (for cross channel LRN) or the side length of the square region to sum over (for within channel LRN)alpha
[default 1]: the scaling parameter (see below)beta
[default 5]: the exponent (see below)norm_region
[defaultACROSS_CHANNELS
]: whether to sum over adjacent channels (ACROSS_CHANNELS
) or nearby spatial locaitons (WITHIN_CHANNEL
)
- Optional
The local response normalization layer performs a kind of “lateral inhibition” by normalizing over local input regions. InACROSS_CHANNELS
mode, the local regions extend across nearby channels, but have no spatial extent (i.e., they have shapelocal_size x 1 x 1
). InWITHIN_CHANNEL
mode, the local regions extend spatially, but are in separate channels (i.e., they have shape1 x local_size x local_size
). Each input value is divided by
(1+(α/n)∑ix2i)β
, where n is the size of each local region, and the sum is taken over the region centered at that value (zero padding is added where necessary).
翻译下:
层类型: LRN
CPU 实现代码: ./src/caffe/layers/lrn_layer.cpp
CUDA GPU 实现代码: ./src/caffe/layers/lrn_layer.cu
参数 (LRNParameter lrn_param)
可选
1. local_size [default 5]: 对于跨通道的归一化,该参数指参与求和的通道数,对于
通道内的规范化,该参数指的是参与求和的方形区域的边长
2. alpha [default 1]: 尺度参数(见下文)
3. beta [default 5]: 指数参数(见下文)
4. norm_region [default ACROSS_CHANNELS]: 指定在通道之间进行规范化
(ACROSS_CHANNELS)还是在通道内进行规范化(WITHIN_CHANNEL)。
(在通道间指的是沿着通道维度操作,通道内指的是在特征图的二维平面内操作)局部响应值归一化层通过对输入数据的局部归一操作执行了一种“侧抑制”的机制。 在ACROSS_CHANNELS 模式下, 局部区域沿着临近通道延伸(而非在特征图的平面内),而没有空间扩展(即局部区域的形状为 local_size x 1 x 1)。在 WITHIN_CHANNEL 模式下, 局部
区域在各自通道内部的图像平面上延伸(即局部区域的形状为 1 x local_size x local_size以实现归一化)
每个输入值除以
(1+(α/n)∑ix2i)β
式中,n 是局部区域的大小,在以当前输入值为中心的区域内计算加和(如有需要,需在边缘补零)。
参考官网:http://caffe.berkeleyvision.org/tutorial/layers