caffe
qiusuoxiaozi
取法乎上
展开
-
Caffe Tutorial in Brief
首先看 Blobs, Layers, and NetsCaffe stores, communicates, and manipulates the information as blobs: the blob is the standard array and unified memory interface for the framework. The layer comes next as t原创 2017-02-17 17:27:38 · 477 阅读 · 0 评论 -
LeNet Tutorial with Caffe
刚看完Caffe官网example中的LeNet Tutorial首先,搞清楚LeNet的结构,很简单,就是conv+pool+conv+pool+fc+fc In general, it consists of a convolutional layer followed by a pooling layer, another convolution layer followed by a p原创 2017-02-18 00:11:43 · 495 阅读 · 0 评论 -
Caffe—Developing New Layer
Developing new layersAdd a class declaration for your layer to include/caffe/layers/your_layer.hpp. Include an inline implementation of type overriding the method virtual inline const char* type() c原创 2017-06-15 10:08:03 · 523 阅读 · 0 评论 -
General Trainning Strategy in Caffe
首先祭出caffe.proto中对于solver.prototxt的一些参数定义: // The number of iterations for each test net. repeated int32 test_iter = 3; // The number of iterations between two testing phases. optional int32 test_原创 2017-06-04 14:32:31 · 414 阅读 · 0 评论 -
Caffe—SigmoidCrossEntropyLossLayer
首先看一下来自CaffeCN的一个帖子(突然发现CaffeCN是一个交流Caffe的好地方) 地址:http://caffecn.cn/?/question/25 截图如下上图之所以要分xnx_n正负讨论是为了让e的指数为负数,以防止溢出。整个表达式对应下面的代码第18行开始template <typename Dtype>void SigmoidCrossEntropyLossLayer<D原创 2017-06-14 18:34:22 · 2176 阅读 · 2 评论 -
语义分割输出结果上采样过程中的zoom value问题
最早是在看dilated convets那篇文章,一直琢磨不懂,为什么predict的时候,作者通过双线性插值上采样过程中要令zoom=8,见下图(在VOC2012数据集上,传参时zoom是8,我试过在其他的数据集,比如cityscape,camvid等上面,zoom=8得到的结果也是效果更好,原因的话,后面就可以明白了):为了搞懂为什么选择8, 我特意给作者发了邮件,遗憾的是,石沉大海。。直到前两原创 2017-05-10 02:19:30 · 2394 阅读 · 0 评论 -
语义分割中的训练策略和参数设置
下面主要总结一下语义分割和边缘检测中,使用VGG作为base network的论文中,训练参数和策略的情况:原创 2017-06-20 10:51:23 · 6233 阅读 · 1 评论 -
Deconvolution/Transposed convolution
老早就琢磨过deconvolution的问题,不过今天又想起这个,发现理解得还是比较模糊,具体就是还是不知道caffe或者tensorflow中实现deconvolution是怎么实现的,刚才看到下面这篇文章https://arxiv.org/ftp/arxiv/papers/1609/1609.07009.pdf里面的两张图一下子就把我的所有疑惑解开了:Fig.2描述的是卷积过程,caffe中的i原创 2017-08-16 20:01:46 · 5074 阅读 · 0 评论 -
Ubuntu16.04 + CUDA8.0 + CuDNN + OpenCV + caffe
先装NVIDIA官方驱动,然后装CUDA,随后装CuDNN,接着装OpenCV,最后安装配置caffe为了给我的GTX1080安装好英伟达的官方驱动,看了一些帖子,结果发现安装的方法众说纷纭。 想起上次在笔记本上安装驱动时,陷入login loop的痛苦,这一次一定调研清楚在下手!下面的片段来自百度贴吧,大致总结了我看到的几种安装Nvidia驱动的方法: 安装Ubuntu显卡驱动的方法有以下几种原创 2017-04-18 01:37:07 · 7847 阅读 · 0 评论