- 博客(11)
- 收藏
- 关注
转载 双线性插值
双线性插值就是在x轴和y轴两个方向上进行插入操作。假设A、B两个点,要在AB中间插入一个点C(C坐标在AB连线上),就直接让C的值落在AB的连线上即可。 例如A点坐标(0, 0),值为3,B点坐标(0,2),值为5,要对坐标(0,1)的点C进行插值,就让C落在AB上,值就为4。 如果C点不在AB线上,如图所示 已知Q12,Q22,Q11,Q21,但是要插值的点为P点,这就要双线性插值了,首
2017-11-29 10:42:47 588
转载 ROI Pooling
ROI Pooling 是pooling层的一种,ROI(Region of interest).ROI是指矩形框,往往经过rpn后,输出的不止一个矩形框,所以需要对多个ROI进行pooling。 输入:1、data: 指的是进入RPN层之前的那个Conv层的Feature Map,通常我们称之为”share_conv“ 2、rois: 指的是RPN层的输出,一堆矩形框,形状为1*1*5*1(4
2017-11-29 10:17:44 1086
转载 Caffe系列之命令行解析
caffe运行提供三种接口:C++接口,python接口和matlab接口caffe的C++主程序(caffe.cpp)放在根目录下的tools文件夹内,当然还有一些其他功能文件,如: convert_imageset.cpp, train_net.cpp, test_net.cpp等也放在这个文件夹内。经过编译后,这些文件都编译成了可执行文件,放在了./build/tools/文件夹内。因此我们
2017-11-25 16:32:10 315
转载 caffe系列之:Blob,Layer and Net以及对应配置文件的编写
深度网络是一个组合模型,它由许多相互连接的层组合而成的,它按照一定的策略,一层一层的搭建出自己的模型。它将所有的信息数据定义为blobs,从而进行便利的操作和通讯。Blob是caffe的一种标准的数组,一种统一的内存接口,它详细描述了信息是如何存储的、以及如何在层之间的通讯的。 1、blob Blobs封装了运行时的数据信息,提供了CPU和GPU的同步。从数学上来说,Blob是一个N维数组。它是
2017-11-24 23:20:19 270
转载 Caffe系列之常用层
softmax_loss层,Inner_Product层,accuracy层,reshape层和dropout层及其他参数配置。1、softmax-loss softmax-loss层和softmax层计算大致相同,softmax是一个分类器,计算的是类别概率,是Logistic Regression的一种推广。 softmax与softmax-loss的区别: softmax计算公式:
2017-11-24 22:40:52 241
转载 caffe系列之激活函数
1、Sigmoidlayer{ name: "encod1act" bottom: "encode1" top: "encode1neuron" type: "Sigmoid"}2、ReLU/Retified-Linear and Leaky-ReLU 可选参数:negative_slope:默认为0。对标准的ReLU函数进行变化,如果设置了这个值,那么数据为负数
2017-11-24 11:47:56 439
转载 caffe系列之视觉层
视觉层包括Convolution,Pooling, Local Response Normalization(LRN) ,im2col等 Convolution层和Pooling层大家都已经很熟悉,我们重点关注后面两个。 1、Local Response Normalization(LRN)层 此层是对一个输入层的局部区域进行归一化,达到”侧抑制“的效果。可以去搜索AlexNet或GoogLe
2017-11-24 11:20:16 303
转载 caffe系列之数据层及参数
1、数据层是模型的最底层,是模型的入口,不仅提供数据输入,也提供数据从Blobs转换成别的格式进行保存输出,通常的数据预处理(去均值,放大缩小,裁剪和镜像等)也在这一层实现。 2、数据来源可以是高效的数据库(levelDB和LMDB),也可以来自内存,甚至可以是磁盘的HDF5 文件或图片格式文件。layer{ name: "cifar" type: "Data" top:
2017-11-23 23:07:26 880
转载 caffe的caffe.proto
caffe源码中的caffe.proto在…\src\caffe\proto目录下,在这个文件夹下还有一个.pb.cc和一个.pb.c文件,这两个文件都是由caffe.proto编译出来的。 在caffe.proto中定义了很多结构化数据,包括:BlobProtoDatumFillerParameterNetParameterSolverParamterSolverStateLaye
2017-11-19 22:52:45 383
转载 大数处理问题
http://blog.csdn.net/v_july_v/article/details/7382693: 原理讲解 http://blog.csdn.net/v_JULY_v/article/details/6403777: 程序实现 原则:大而化小,分而治之(hash映射) 解决方法: 1、分而治之/hash映射+hash统计+堆/快速排序/归并排序 2、双层桶划分 3、Bloo
2017-11-15 17:22:17 428
转载 Xception_深度可分卷积
转载自:http://blog.csdn.net/wangli0519/article/details/73004985 卷积神经网络中Inception模块是在在普通卷积和深度可分卷积操作之间一种中间状态。基于此,深度可分卷积可理解为最大数量tower的INception模块。根据Inception,提出一种新的的深度卷积神经网络结构,用深度可分卷积替代Inception模块。昵称为Xcepti
2017-11-13 19:44:28 882
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人