![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
caffe源码学习
冬后晚晴
这个作者很懒,什么都没留下…
展开
-
caffe源码解读(9)-euclidean_loss_layer.cpp
公式参数:bottom[0]、bottom[1]、top[0] 1. (N*C*H*W) the predictions: yn^" role="presentation">yn^yn^ \hat{y_{n}}–>bottom[0] 2. (N*C*H*W) the targets: yn" role="presentation">ynyn{y_{n}}–>bottom[1]原创 2018-01-31 11:19:23 · 450 阅读 · 0 评论 -
caffe源码解读(13)-blob.hpp
caffe使用称为blob的四维数组用于存储和交换数据。Blob提供了统一的存储器接口,持有一批图像或其他数据、权值、权值更新值。Blob在内存中表示四维数组,维度从低到高为[width_,height_,channels_,num_],其中,width_和height_表示图像的宽和高,channes_表示颜色通道RGB,num_表示第几帧,用于存储数据或权值(data)和权值增量(diff),在原创 2018-03-30 14:53:00 · 267 阅读 · 0 评论 -
caffe源码解读(12)-convert_imageset.cpp
caffecaffe中允许输入的数据类型可以是LMDBLMDB或LEVELDBLEVELDB,caffecaffe中提供了将图片转化为LMDB的工具,位于caffe_dir/tools/convert_imageset.cpp,下面对源码进行简单解析:首先是一些参数的设置选项,包括shuffle、resize等using namespace caffe; // NOLINT(build/names原创 2018-03-23 10:46:45 · 975 阅读 · 0 评论 -
Caffe-Batch Normalization解析
BatchBatch Normalization Normalization(BNBN)的提出:paper[链接](https://arxiv.org/pdf/1502.03167.pdf) 论文中对BNBN的解释:Making normalization a part of the model architecture and performing the normalization for e原创 2018-03-08 15:31:56 · 1150 阅读 · 0 评论 -
caffe源码解读(7)-data_transformer.cpp
DataTransformer类主要负责对数据进行预处理,比如减去均值、进行crop,镜像mirror,强制设置为彩色图像force_color,强制设置为灰度图像force_gray以及像素值的缩放scale,此外该类还将Datum、const vector、cv::Mat&、vector 、Blob*类型的数据变换到目标大小的blob,负责对上述类型的数据推断其shape。 一.数据结原创 2018-01-30 12:40:26 · 2056 阅读 · 0 评论 -
caffe源码解读(6)-数据读取层DataLayer
数据读取层,除了读取LMDB、LEVELDB之外,也可以从原始图像直接读取(ImageDataLayer).一.数据结构描述message DataParameter { enum DB { LEVELDB = 0;//使用LEVELDB LMDB = 1;//使用LMDB } optional string source = 1; optional原创 2018-01-29 16:20:19 · 1052 阅读 · 0 评论 -
caffe源码(8)-video_data_layer.cpp
video_data_layer层是在caffe里面新添加的一个DataLayer,该层允许caffe的输入data层数据为视频。由于视频是由一帧一帧的图像组成,因此该层的定义主要参考image_data_layer层。 同样遵循:VideoData层参数定义->VideoData数据层声明->VideoData数据层实现的顺序,介绍如下:一.caffe.proto层参数定义层参数定原创 2018-01-30 15:18:42 · 1797 阅读 · 2 评论 -
caffe源码解读(5)-image_data_layer.cpp
数据层:Image_data_layer层主要用于caffe来自图片的数据处理。 层类型:ImageData 必须设置的参数:①source:一个文本文件的名字,每行给定一个图片文件的名称和标签;②batch_size:每一次处理的数据个数,即图片数。 可选参数:①rand_skip:在开始时,跳过某个图片的输入;②shuffle:随机打乱顺序;③new_height,new_width:如原创 2018-01-29 10:56:13 · 3154 阅读 · 0 评论 -
caffe源码解读(3)-contrastive_loss_layer.cpp
Definition该损失函数的提出最早在这篇论文中,主要用来做降维处理。链接 caffe中siamese网络用到Contrastive loss,这种损失函数可以有效地处理siamese网络中pair-data的数据关系。FormulaLc=12N∑n=1Nyd+(1−y)max(margin−d,0),d=‖an原创 2018-01-26 16:28:33 · 740 阅读 · 0 评论 -
caffe源码解读(1)-softmax_loss_layer.cpp
softmax公式定义caffe源码解读定义 “softmax function is a generalization of the logistic function that maps a length-p vector of real values to a length-K vector of values”更多解释,可参考UFLDL教程链接,以及知乎回答链接。原创 2018-01-24 16:17:33 · 653 阅读 · 0 评论 -
caffe源码解读(4)-concate_layer.cpp以及slice_layer.cpp
一.Concate作用:实现多个输入数据的拼接 输入:x1,x2,…,xk 输出:y x1: N*C*H*W x2: N*C*H*W xk: N*C*H*W y: kN*C*H*W(concate_dim=0) y: N*kC*H*W(concate_dim=1) 参数:两个作用相同 ①axis ②concate_dim(1)caffe.proto层参数定义message Conc原创 2018-01-28 16:32:13 · 1300 阅读 · 0 评论 -
caffe源码解读(2)-center_loss_layer.cpp
center_loss公式定义center_loss_layer.cpp源码解读center loss,softmax loss在mnist数据集上的对比实验定义 “Center Loss: simultaneously learning a center for deep features of each class and penalizing the distances转载 2018-01-25 22:13:30 · 802 阅读 · 0 评论 -
caffe源码解读(11)-triplet_loss_layer.cpp
定义TripletLoss" role="presentation">TripletLossTripletLossTriplet Loss 的提出,是在这篇论文中——FaceNet: A Unified Embedding for Face Recognition and Clustering,论文中对TripletLoss" role="presentation">TripletLossT原创 2018-02-01 15:16:17 · 504 阅读 · 0 评论 -
caffe源码解读(10)-hinge_loss_layer.cpp
公式参数:两个输入bottom[0]、bottom[1],一个输出top[0]。 bottom[0]: N*C*1*1 预测值; bottom[1]: N*1*1*1 真实值; p: 范数,可选L1、L2L_{1}、L_{2}范数; δ{ln=k}\delta \left \{ l_{n}=k \right \}: 示性函数,如果第nn个样本的真实标签为kk,则δ{ln=k}=1\delta原创 2018-01-31 17:23:34 · 281 阅读 · 0 评论 -
caffe | Python Layer
首先来看官网给出的该层的定义:The Python layer allows users to add customized layers without modifying the Caffe core code.在不改变caffe核心代码的情况下,可以使用Python 来定义Layer层。caffe编译:修改caffe根目录下的Makefile.config文件(WITH_PYTHON_LAY...原创 2018-05-15 10:45:07 · 524 阅读 · 0 评论