- 博客(26)
- 收藏
- 关注
原创 Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recognition
这篇文章可以说很晦涩了,作者用图卷积学习骨架数据,大概看一遍文章就知道作者建立了3-D Graph,然后用图卷积来学习所建立的图数据特征,然后再识别行为。但是这不是晦涩的地方,毕竟一个图,就看明白了,晦涩的地方是文章中的数据是的维度以及这个维度计算是怎么在图卷积中流动的。不类比传统卷积还好,偏偏现在大多都是拿传统卷积来讲图卷积,然后,会不自觉的用二维欧几里德图形里的传统卷积来考虑图卷积,这就开始蛋...
2018-06-21 21:25:05 10749 11
转载 CUDA编程
1. 什么是CUDA? CUDA全称是Compute Unified Device Architecture,中文名称即统一计算设备架构,它是NVIDIA公司提出了一种通用的并行计算平台和编程模型。使用CUDA,我们可以开发出同时在CPU和GPU上运行的通用计算程序,更加高效地利用现有硬件进行计算。 并行编程的中心思想是分而治之:一个问题可以首先被粗粒度地划分为若干较小的子问题...
2018-03-28 17:17:27 734
原创 八、tensorflow之结果可视化
import tensorflow as tfimport numpy as npdef add_layer(inputs, input_size, out_size, activation_function == None): Weights = tf.Variable(tf.random_normal([input_size, out_size])) biases = tf
2017-10-24 17:45:50 575
原创 七、tensorflow之构建网络。
在前面的学习中,我们学会了如何通过tensorflow添加新层,具体代码如下:import tensorflow as tfimport numpy as npdef add_layer(inputs, input_size, out_size, activation_function == None): Weights = tf.Variable(tf.random_normal([inp
2017-10-23 21:59:13 456
原创 六、tensorflow之添加层。
对于tensorflow来讲,利用python添加层是通过定义函数定义的。 比如,定一个层,实现activation(x*w+b) , activation是激活函数。import tensorflow as tfdef add_layer(inputs, in_size, out_size, activation=None): Weights = tf.Variable(tf.random
2017-10-19 20:54:10 542
原创 五、tensorflow之传入值(placeholder)
placeholder,顾名思义,就是一个储存东西的地方,这样的定义有点像变量variable,但他和变量完全不一样,因为每次要用,必须要和搭配字典传入新值后才能激活,不需要初始化。 下面代码例子: 计算两个数相乘import tensorflow as tfinput1 = tf.placeholder(tf.float32)input2 = tf.placeholder(tf.float
2017-10-18 21:30:33 1117
原创 四、tensorflow之variable(变量)
还是通过学习教程中的例子来备忘一下: 写一个变量,每次变量加1。import tensorflow as tfstate = tf.Variable(0, name='baba')one = tf.constant(1)new_value = tf.add(state, one)udpate = tf.assign(state, new_value)接下来一行代码非常重要,因为上述代码我们定
2017-10-18 21:22:22 367
原创 三、tensorflow之session
tensorflow中的会话功能(session)用来激活tensorflow结构中的变量,所有的变量要访问都要先通过session激活。 一个例子: 两个矩阵的内积:#定义两个矩阵#coding=utf-8import tensorflow as tfmatrix1 = tf.constant([[2,2]])matrix2 = tf.constant([[3],
2017-10-18 21:13:31 564
原创 二、tensorflow线性拟合实例。
目的,给定一堆(本博客为100个)离散的点,通过单层的神经网络进行学习,工具tensorflow,下面开始具体教程:首先创造数据:import tensorflow as tfimport nump as np**create data**x_data = np.random.randn(100).astype(float32)y_data = x_data*0.3 + 0.7这个数据是我
2017-10-18 17:47:45 815
原创 一、ubuntu下tensorflow的安装。
第一步:首先看一下电脑里是否已装python,版本是什么。命令分别为:whereis python和直接在终端输入python命令,看显示是2.7版本还是3.x版本。第二步: 输入以下指令:对于2.7版本$ sudo apt-get install python-pip python-dev对于3.x版本$sudo apt-get install python3-pip python3-de
2017-10-17 19:40:23 1266
原创 Quo Vadis, Action Recognition? A New Model and the Kinetics Dataset
时光荏苒,岁月如梭,恍惚间,一道白光闪现,空中一尊大佛低声喃语:小伙子,你,是不是太久没读论文了!于是,我开始补论文。简略记下,防止忘掉。本文是deepmind出品,目的,就一个,放出个关于视频方面的训练集kinetics,一个四百个类,每个类有至少四百个clips,每个clips十秒钟,属于从youtube上剪切的视频,然后对比了几种现在存在的用于行为识别的几种框架,具体如下图: 其中,a,b
2017-09-11 15:04:55 5594
原创 Spatiotemporal Multiplier Networks for Video Action Recognition
2017年cvpr,刚放出来的文章,大概看了一下,是在上一篇文章的扩展,上一篇文章见:http://blog.csdn.net/paranoid_cnn/article/details/77838574 问题:基于二流网络,本篇文章和给出上述链接的文章的思想是:原始的二流网络分别学习appearance stream和motion stream,虽然取得了比较work的性能,但时间和空间是分开学习的
2017-09-06 15:08:30 2469
原创 Spatiotemporal Residual Networks for Video Action Recognition
这篇文章出自2016 NIPS, 作者是格林茨大学的Feichtenhofer。背景:几乎现在行为识别领域,比较work的工作都是基于二流网络。其中appearance和motion分别由两个不同的网络学习,并将两个网络的结果做融合后产生识别。本文创新部分: a、将二维空间ResNet网络部分扩展到时间域。即原来的二维空间网络W*H*C 映射到W*H*T*C, 具体初始化方法如下:这样的好处有两
2017-09-04 16:07:03 4575 7
原创 Action Recognition by Dense Trajectories
INTRODUCTION in general,trajectory features is extracted using the KLT tracker or matching SIFT descriptors between frames. however,extracted trajectores is various depend on the methods, We sample
2016-11-28 14:46:55 927
原创 Action Recognition with Trajectory-Pooled Deep-Convolutional Descriptors
Introduction此论文结合了hand-craft features 和 deep convolutional features两种提取特征的方式,方法名称:trajectory-pooled deepconvolutional descriptor ,简称TDD。 整个过程分两步:利用cnn学习convolutional features采用trajectory-constrained
2016-11-23 21:43:14 2044
原创 Two-Stream Convolutional Networks for Action Recognition in Videos
总概本篇文章提出了三点: 1、propose一个two-stream卷积神经网络框架,时间流和空间流。 2、表明提出的光流神经网络在action recognition上有较好的结果。 3、multi-task learning,用于data argument。所有的训练和评估bendmark:UCF101和HMDB-51。设计成two-stream的原因:Video can naturall
2016-11-21 10:38:59 5761 23
原创 caffe源码之VideoDataLayer
解析写这个文章是为了了解caffe的数据读取如果不是图片,而是视频,数据层是如何设计的。直观感觉对于caffe的入口层数据不是图像而是一帧帧视频的读取层,直观上的设计是好像没啥区别,因为视频本质也是一帧帧图像,但我真不知道怎么处理,可能最暴力的办法就是把一帧帧图像分别保存为单通道图像,然后将多幅单通道图像合并为一个多通道图像,那么一个视频本质上就是一幅多通道的图像,但问题就在于好像这样做不是很简单的
2016-11-17 22:55:51 3370 10
转载 math_funtion函数解析
目录 目录主要函数caffe_cpu_gemm 函数caffe_cpu_gemv 函数caffe_axpy 函数caffe_set 函数caffe_add_scalar 函数caffe_copy 函数caffe_scal 函数caffeine_cup_axpby 函数caffe_add caffe_sub caffe_mul caffe_div 函数caffe_powx
2016-11-17 14:09:39 712
原创 全连接层解析(二)——源码解析
C++非常差,整理下来三个目的:第一搞懂caffe原理,第二在这个过程中会学C++,整理下来,便于回头梳理,第三和志轩的那个约定。第四努力当一个不被志轩抛弃的菜逼。- Inner_Product Layer.hpp先看Inner_Product Layer.hpp:template <typename Dtype> class InnerProductLayer : public Layer<Dt
2016-07-07 09:19:16 1959
原创 caffe源码串联(一)
***自己在学习过程中遇到了很多坑,由于基础太差,基本是寸步难行,看到繁杂的caffe源码就想按下电脑电源键强制关机,就在我要放弃之刻,我遇到了老司机志轩,志轩老湿的一番话让我茅塞顿开,故决定开博文写自己的caffe学习之旅,反正不会就小窗口志轩,烦也要烦死他,之后的博文会都会在结尾附上志轩老师的博客,有需要的同志看一下,说不定就有有用的东西。***需要的一点caffe基础:
2016-07-01 10:17:51 678
转载 caffe基础介绍
Caffe基础介绍 Caffe的全称应该是ConvolutionalArchitecture for Fast Feature Embedding,它是一个清晰、高效的深度学习框架,它是开源的,核心语言是C++,它支持命令行、Python和Matlab接口,它既可以在CPU上运行也可以在GPU上运行。它的license是BSD2-Clause。 Deep Lea
2016-05-10 17:49:56 863
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人