Machine Learning
文章平均质量分 88
code_Rocker
machine learning,action/gesture recognition.
Be a Fighter
展开
-
caffe将用训练好的caffemodel和train_val.prototxt文件分类新的一张图片-上篇--caffe学习(6)
经过前文介绍之后可以训练得到caffemodel文件,同时得到train_val.prototxt文件,但是我们分类时需要的是deploy.prototxt文件。 因此需要手动将train_val.prototxt文件转换成deploy.prototxt文件 首先将train_val.prototxt文件复制一份保存为deploy.prototxt文件cp train_val.prototxt原创 2017-01-04 11:33:46 · 2474 阅读 · 0 评论 -
A Key Volume Mining Deep Framework for Action Recognition论文学习
Zhu W, Hu J, Sun G, et al. A Key Volume Mining Deep Framework for Action Recognition[C]// IEEE Conference on Computer Vision and Pattern Recognition. IEEE Computer Society, 2016:1991-1999.百度学术 1:思路:原创 2017-01-10 18:20:20 · 3117 阅读 · 3 评论 -
R-FCN:基于区域的全卷积网络来检测物体
原文http://blog.csdn.net/shadow_guo/article/details/51767036原文标题为“R-FCN: Object Detection via Region-based Fully Convolutional Networks ”,作者代季峰 1,14年毕业的清华博士到微软亚洲研究院的视觉计算组,CVPR 16 两篇一作的会议主持人~ ╰(°▽°)╯ 同时公布转载 2017-02-20 10:30:54 · 1215 阅读 · 0 评论 -
【论文学习】YOLO9000: Better,Faster,Stronger(YOLO9000:更好,更快,更强)
原文`http://blog.csdn.net/hysteric314/article/details/53909408`原文下载:https://arxiv.org/pdf/1612.08242v1.pdf 工程代码:http://pjreddie.com/darknet/yolo/目录目录摘要简介BETTERFasterStronger总结要说的摘要提出YOLO v2 :代表转载 2017-02-20 10:49:49 · 832 阅读 · 0 评论 -
论文阅读:SSD: Single Shot MultiBox Detector
转载http://blog.csdn.net/u010167269/article/details/52563573Preface这是今年 ECCV 2016 的一篇文章,是 UNC Chapel Hill(北卡罗来纳大学教堂山分校) 的 Wei Liu 大神的新作,论文代码:https://github.com/weiliu89/caffe/tree/ssd 有几点更新: 1. 看到一篇 bl转载 2017-02-21 10:58:38 · 807 阅读 · 0 评论 -
YOLO论文解读
转载自:http://blog.csdn.net/u011534057/article/details/51244354Reference link:http://blog.csdn.NET/tangwei2014这是继RCNN,fast-RCNN 和 faster-RCNN之后,rbg(Ross Girshick)大神挂名的又一大作,起了一个很娱乐化的名字:YOLO。 虽然目前版本还有一些硬伤转载 2017-02-17 10:31:03 · 6973 阅读 · 0 评论 -
全卷积网络FCN论文阅读Fully Convolutional Networks for Semantic Segmentation
转载http://blog.csdn.net/u011534057/article/details/51247388【论文信息】《Fully Convolutional Networks for Semantic Segmentation》CVPR 2015 best paperReference link: http://blog.csdn.NET/tangwei2014http://blog转载 2017-02-22 16:20:26 · 3910 阅读 · 0 评论 -
Contextual Action Recognition with R*CNN-论文阅读
Contextual Action Recognition with R*CNN: arXiv 文章源代码: https://github.com/gkioxari/RstarCNN摘要: 基于动态图像的行为识别主要是学习到图片中人体的动作,比如当图片中运动员慢跑时,周围的环境同样可以为慢跑的识别提供信息,在本文中我们很好的结合了运动物体和环境因素来实现静态图像的行为识别。我们将RCNN原创 2017-03-02 11:46:53 · 3481 阅读 · 2 评论 -
caffe增加自己的layer实战(下)--caffe学习(12)
接上篇 caffe增加自己的layer实战(中)–caffe学习(11) 先放出完整的修改后的video_data_layers.cpp:#include <fstream>#include <iostream>#include <string>#include <utility>#include <vector>#include "caffe/data_layers.hpp"#inc原创 2017-01-09 11:24:24 · 2750 阅读 · 0 评论 -
双流网络行为识别-Spatiotemporal Residual Networks for Video Action Recognition-论文阅读
前几天刚放出来的一篇paper:Spatiotemporal Residual Networks for Video Action Recognition,又将HMDB51数据库和UCF101数据库的精度刷高了。 精度结果如下: 这比之前的tsn网络的结果还要好,之前tsn的结果是:Temporal Segment Networks: Towards Good Practices for原创 2017-03-02 09:41:14 · 12558 阅读 · 5 评论 -
caffe中RGB图像三通道卷积过程学习推导
idea来源于自己的想法,之前在github看过大神贾杨清的推导slider,caffe中如果计算卷积,加上自己最近有个很小的疑惑,输入的image一般是RGB三通道的彩色图片,但是我们在定义卷积层时一般只指定了一个kernel_size参数。像这样: 本文首先学习一下贾杨清大神的slider推导过程,然后从caffe源码里面去找从定义caffe的kernel_size参数开始以后干的事,然后原创 2017-03-08 22:13:07 · 19973 阅读 · 4 评论 -
tensorflow求lost(cost)损失函数的几种典型实现方法
最近在用tensorflow平台,需要用到自己构造cost函数,故记录如下: tensorflow求lost(cost)损失函数的几种典型实现方法 参考文献这里写链接内容 这里写链接内容原创 2017-04-14 11:05:32 · 9601 阅读 · 0 评论 -
神经网络优化算法如何选择Adam,SGD
之前在tensorflow上和caffe上都折腾过CNN用来做视频处理,在学习tensorflow例子的时候代码里面给的优化方案默认很多情况下都是直接用的AdamOptimizer优化算法,如下:optimizer = tf.train.AdamOptimizer(learning_rate=lr).minimize(cost)但是在使用caffe时solver里面一般都用的SGD+momentum原创 2017-06-05 15:05:20 · 32872 阅读 · 0 评论 -
(转)tensorflow中使用指定的GPU及GPU显存
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~本文目录1 终端执行程序时设置使用的GPU2 python代码中设置使用的GPU3 设置tensorflow使用的显存大小~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~转载请注明出处:http://www.cnblogs.com/darkknightzh/p/6591923.html参考网址转载 2017-06-08 10:58:04 · 18525 阅读 · 0 评论 -
caffe/tensorflow中样本的label一定要从序号0开始标注--caffe学习(15)
这两天在跑实验时思考一个问题,为什么在别的帖子里面和自己之前的实验中,对于data的标注大家都默认使用的是从0开始标注样本,之前的一次finetune中,自己的样本从34567开始标注的时候一直没有开始收敛loss,但是后来在另一个帖子中看到标注必须要从0开始,后来自己改成01234之后loss也收敛了,因此开贴记录并验证。这是序号为01234的test.txt文件内容: 先看标注从0开始的样原创 2017-01-10 23:40:40 · 11697 阅读 · 2 评论 -
迁移学习技巧以及如何更好的finetune 模型
最近在finetune model的时候遇到了点问题,开贴记录一下。也算填自己踩过的坑。 文章参考翻译自cs231n 其实我们常用的直接finetune pre-trained model就属于迁移学习(Transfer Learning)的一种。因为我们很少在训练一个新任务时从零开始训练,一个是由于训练时间限制,另一个时训练样本过大存储空间也不一定允许,如ImageNet数据经济120万张图片原创 2017-05-09 21:45:37 · 21430 阅读 · 4 评论 -
【目标检测】Fast RCNN算法详解
原文:http://blog.csdn.net/shenxiaolu1984/article/details/51036677 Girshick, Ross. “Fast r-cnn.” Proceedings of the IEEE International Conference on Computer Vision. 2015.继2014年的RCNN之后,Ross Girshick在15转载 2017-02-17 10:27:01 · 4328 阅读 · 0 评论 -
caffe将用训练好的caffemodel和train_val.prototxt文件分类新的一张图片-下篇--caffe学习(7)
接上篇caffe将用训练好的caffemodel和train_val.prototxt文件分类新的一张图片-上篇 得到deploy.prototxt文件之后,我们可以自己编写python代码实现对单个图片的分类预测,先贴代码再分析:#coding=utf-8import caffeimport numpy as nproot=root='/home/dltest/caffe/' #根目录原创 2017-01-04 12:31:46 · 1906 阅读 · 0 评论 -
caffe将网络模型由protot转换成变成网络结构模型图--caffe学习(5)
首先需要安装graphviz,再安装pydot 在conda命令下:conda install graphvizconda install pydotpython/draw_net.py这个文件,就是caffe官方提供的用来绘制网络模型的。也就是将网络模型由prototxt变成一张图片。 安装好了,就可以调用脚本来绘制图片了 draw_net.py执行的时候带三个参数第一个参数:网络模型的p原创 2017-01-02 23:19:58 · 2007 阅读 · 0 评论 -
caffe用python设置网络的Convolution层Pooling层和LRN--caffe学习(4))
1:卷积层,是卷积神经网络(CNN)的核心层。 层类型:Convolution lr_mult: 学习率的系数,最终的学习率是这个数乘以solver.prototxt配置文件中的base_lr。如果有两个lr_mult, 则第一个表示权值的学习率,第二个表示偏置项的学习率。一般偏置项的学习率是权值学习率的两倍。 在后面的convolution_param中,我们可以设定卷积层的特有参数。原创 2017-01-02 01:05:31 · 2224 阅读 · 0 评论 -
caffe用python加载数据,包含各类数据类型(LMDB,image,HDF5等共五种全部格式))--caffe学习(3)
caffe的数据层是网络的第一层,也就是data层,今天我们就先介绍一下数据层。 数据层是每个模型的最底层,是模型的入口,不仅提供数据的输入,也提供数据从Blobs转换成别的格式进行保存输出。通常数据的预处理(如减去均值, 放大缩小, 裁剪和镜像等),也在这一层设置参数实现。 数据来源可以来自高效的数据库(如LevelDB和LMDB),也可以直接来自于内存。如果不是很注重效率的话,数据也可来自磁原创 2017-01-02 00:39:39 · 2331 阅读 · 0 评论 -
caffe使用预训练的模型进行finetune--caffe学习(1)
首先明确预训练好的模型和自己的网络结构是有差异的,预训练模型的参数如何跟自己的网络匹配的呢:参考官网教程:http://caffe.berkeleyvision.org/gathered/examples/finetune_flickr_style.html–If we provide the weights argument to the caffe train command, the pret原创 2016-12-30 20:27:20 · 5680 阅读 · 2 评论 -
caffe的solver文件参数详解--caffe学习(2)
solver文件参数:test_interval,test_iter,max_iter的区别:test_interval = 938 #60000/64,测试间隔参数:训练完一次所有的图片,进行一次测试 **#测试间隔就是完成一次完整的train需要的次数,=train_example/train_batch_size,假如有60000个train样本,bs设置为64,test_inter原创 2016-12-30 20:28:47 · 2960 阅读 · 0 评论 -
常用网络模型结构LeNet,AlexNET,VGG,BN-inception,ResNet网络模型简介和资料整理--caffe学习(8)
在使用深度神经网络时我们一般推荐使用大牛的组推出的和成功的网络。如最近的google团队推出的BN-inception网络和inception-v3以及微软最新的深度残差网络ResNET。 我们从简单的网络开始介绍,学习理解网络结构是如何发展到今天的,同时本文整理了自己用别人网络结构时别人的网络结构的pre-reain model和prototxt文件的资源。 首先安利caffe zoo大法,可原创 2017-01-08 14:18:41 · 23344 阅读 · 0 评论 -
caffe增加自己的layer实战(中)--caffe学习(11)
接上篇: caffe增加自己的layer实战(上)–caffe学习(9) 实现完hpp头文件后就在cpp中实现具体的函数: 目录更改到cpp文件:/caffe/src/caffe/layers 新建文件,命名为:video_data_layers.cpp1:首先包含头文件#include <fstream>#include <iostream>#include <string>#inclu原创 2017-01-09 11:21:02 · 1932 阅读 · 0 评论 -
caffe增加自己的layer教程集合
两篇CSDN教程 这里写链接内容 这里写链接内容caffe中文社区: 这里写链接内容github一篇 这里写链接内容 斯坦福大学大牛的博客 这里写链接内容我自己实现的教程: caffe增加自己的layer实战(上)–caffe学习(10) caffe增加自己的layer实战(中)–caffe学习(11) caffe增加自己的layer实战(下)–caffe学习(12)原创 2017-01-08 16:45:31 · 779 阅读 · 0 评论 -
caffe增加自己的layer实战(下-续1)--caffe学习(13)
接上篇:caffe增加自己的layer实战(下)–caffe学习(12) 构造完函数后我们就要进入proto目录。编辑caffe.proto文件,构造我们的video_data_layer的输入参数。 找到:message LayerParameter { 里面有很多类似: optional PythonParameter python_param = 130; 我们要为自己的video_原创 2017-01-09 15:49:20 · 2685 阅读 · 4 评论 -
caffe增加自己的layer实战(上)--caffe学习(10)
github上如何增加自己的caffe layer:这里写链接内容 摘要如下:Here's roughly the process I follow. Add a class declaration for your layer to the appropriate one of common_layers.hpp, data_layers.hpp, loss_layers.hpp, ne原创 2017-01-09 10:52:16 · 2302 阅读 · 0 评论 -
caffe的solver参数调优--caffe学习(17)
先看在python里面写solver文件需要有哪些参数: 其中主要的几个参数区别test_interval,test_iter,max_iter,在这里已经介绍过caffe的solver文件参数详解–caffe学习(2) 接下来看自己跑实验室这些参数应该怎么设置,这里都以SGD为例: [1] L. Bottou. Stochastic Gradient Descent Tricks. Neura原创 2017-01-14 20:42:37 · 5257 阅读 · 0 评论 -
caffe中train_val.prototxt文件和deploy.prototxt文件区别和转换--caffe学习(14)
先放出二者的完整例子文件,然后分析: train_val.prototxt文件如下:name: "CaffeNet"layer {name: "data"type: "Data"top: "data"top: "label"include {phase: TRAIN}transform_param {mirror: truecrop_size: 227mean_file:原创 2017-01-10 21:43:56 · 7537 阅读 · 5 评论 -
caffe中loss函数代码分析--caffe学习(16)
http://blog.csdn.net/u014381600/article/details/54341317接上篇:caffe中样本的label一定要从序号0开始标注–caffe学习(15) A: 1:数学上来说,损失函数loss值和label从0开始还是从1或者100开始是没有直接联系的,以欧式距离损失函数(Euclidean Loss)为例子: 2:铰链损失函数(Hinge Los原创 2017-01-11 09:34:32 · 6307 阅读 · 0 评论 -
RCNN论文学习
原文http://blog.csdn.net/shenxiaolu1984/article/details/51066975Girshick, Ross, et al. “Rich feature hierarchies for accurate object detection and semantic segmentation.” Proceedings of the IEEE conferen转载 2017-02-17 10:24:18 · 519 阅读 · 0 评论 -
hard negative mining分析得最好的理解
hard negative mining的理解,摘自:这里写链接内容: R-CNN在训练SVM分类器时使用了难分样本挖掘(hard negative mining)的思想,但Fast R-CNN和Faster R-CNN由于使用端到端的训练策略并没有使用难分样本挖掘(只是设置了正负样本的比例并随机抽取)。CVPR2016的Training Region-based Object Detec原创 2018-01-25 14:13:53 · 16512 阅读 · 6 评论