caffe
xjc864588399
这个作者很懒,什么都没留下…
展开
-
深度学习之多任务训练
最近,做基于caffe的多任务学习,所以写下这篇博客如何修改网络使其支持多任务学习。 一般地,一个卷积神经网络只是对某一个特定的目标进行学习训练。其实,也可以使一个网络并行地对两个或两个以上的任务进行学习,网络参数共享,这样可以起到减少模型个数,并且使模型具有很好的泛化能力。 那么,应该如何对一个网络修改使其能够进行多任务学习呢,做法不是很复杂,比如对于 caffe里面的Alexne原创 2016-12-28 17:29:00 · 7121 阅读 · 16 评论 -
ImageNet2017 周记之第一周
首先,是调研,自己之前使用CNN做的都是分类任务,对检测了解一些,但是了解的不多,所以看了许多论文和一些博客。按照CNN 做目标检测的时间发展顺序介绍。RCNN,首先使用selectivesearch得到许多候选框,然后将这些候选框resize到一个固定相同的大小,使用CNN 预训练的网络提取特征,每个特征都对应一个SVM 分类器,判别该类属于类别,使用一个线性脊回归器进行精修框的位置。特点是原创 2017-07-05 11:35:28 · 705 阅读 · 0 评论 -
ImageNet2017 周记之第二周
因为跑一次ImageNet需要2天多的时间,所以一开始是在VOC上做修改网络结构的实验。在网络结构上主要尝试了以下实验:第一种,就是直接使用RFCN+ Resnet101 结构跑VOC,什么改动都没有,结果作为baseline。第二种,在RFCN的ps-roipooling层,加入pad_ratio,之所以要加pad_ratio,相当于起到增大了proposal对应原图的尺寸,比如pad_原创 2017-07-05 11:37:12 · 619 阅读 · 0 评论 -
ImageNet2017 周记之第三周
因为使用RFCN直接训练ImageNet的baselinemAP只有24%左右,太低,打乱自己的计划,之前那种网络结构都没有机会去在ImageNet上使用,先找这个问题。花了一周时间,从重新写imagenet.py,处理ImageNet的数据,到训练完,得到结果,花了四天,还是这么高。说明之前训练RFCN的ImageNet数据处理是没有问题的,但是为何如此低,难道是因为ImageNet的目标检测比原创 2017-07-05 11:38:04 · 760 阅读 · 0 评论 -
ImageNet2017 周记之第四周
距离截止日期还剩下一周,baseline还没有,但是已经找到问题所在。我把之前的VOC的prototxt换成coco的,然后使用class-aware的方式,训练。这样原先bbox输出的8个点,就变成了现在的804点,rfcn的8*7*7变为804*7*7,计算量无疑变大,训练速度自然也就变慢。由之前的1s2.5轮,变为现在1s1 轮。而batch是1,两块卡是2,也就是1s能够过两张图片,两个半原创 2017-07-05 11:38:54 · 467 阅读 · 0 评论 -
caffe 均值文件binaryproto 转mat
需要使用caffe 的matlab 接口测试分类,所以需要将之前的均值文件转换成.matcaffe 根目录下,matlab/+caffe 目录下有io.m, 里面写好了一个fuction read_mean() .如下所示。调用方法, 直接在caffe 的根目录下, 进入matlab,命令行,>>addpath('./matlab')>>mean_file = 'path/to/*原创 2017-07-06 11:48:23 · 1131 阅读 · 1 评论 -
caffe 之 proto 理解
caffe 所有层的参数全部定义在一个caffe.proto 的文件里面,里面有每个参数的详细解释,点击打开链接 在protocol buffers的官网的教程中,看到了一些基本的语法和编译使用,为了我们更好的理解caffe自定义一个.proto文件其实是很简单,如下所示syntax = "proto2";package tutorial;message Person {原创 2017-10-07 15:41:09 · 879 阅读 · 0 评论