- 博客(7)
- 资源 (2)
- 收藏
- 关注
原创 深度学习框架设计序列--加速优化
1.数据类型定义,ex vectortst(10) 或者 reserve() 事先分配好内存,不要在用的时候在分配
2017-04-20 14:42:34 328
原创 opencv3.2 编译安装
1. CUDA 相关问题CMake Error:The following variables are used in this project.。。。。。。CUDA_nppc_LIBRARYCUDA_nppi_LIBRARYCUDA_npps_LIBRARY【解决】以上cuda库只有64位版本,因此CMAKE编译的时候只能选择vs2013 64位版本2. cmak
2017-04-17 20:08:49 822
转载 CUDA编程系列--GPU架构,由sp,sm,thread,block,grid,warp说起
掌握部分硬件知识,有助于程序员编写更好的CUDA程序,提升CUDA程序性能,本文目的是理清sp,sm,thread,block,grid,warp之间的关系。由于作者能力有限,难免有疏漏,恳请读者批评指正。 首先我们要明确:SP(streaming Process),SM(streaming multiprocessor)是硬件(GPU hardware)概念。而thread,block,
2017-04-17 12:34:23 1078
转载 CUDA编程系列--详解CUDA核函数及运行时参数
核函数是GPU每个thread上运行的程序。必须通过__gloabl__函数类型限定符定义。形式如下: __global__ void kernel(param list){ }核函数只能在主机端调用,调用时必须申明执行参数。调用形式如下: Kernel>>(param list);>>运算符内是核函数的执行参数
2017-04-17 12:29:28 1138
转载 CNN实现的几种方法
这篇论文主要讨论如何针对CNN做一些GPU矩阵计算的优化。传统CNN计算主要开销是在convolutions, activation function, pooling.首先,我们看convolution的操作过程:参数表:O是输出input feature map,F是filter, D0是input feature map. 从公式看到如果用循环操作,需
2017-04-15 11:25:33 3912
转载 可视化CNN卷积神经网络-- 之二
由于OpenCV对caffe了支持,使用Opencv的dnn模块来做就简单多了,下面给出步骤及代码。1、材料,使用mnist训练得到的模型文件,测试使用的网络文件及一张测试图像: 2、代码:featureMap.cpp#include #include #include using namespace cv; using nam
2017-04-12 16:37:59 556
转载 再谈机器学习中的归一化方法
机器学习、数据挖掘工作中,数据前期准备、数据预处理过程、特征提取等几个步骤几乎要花费数据工程师一半的工作时间。同时,数据预处理的效果也直接影响了后续模型能否有效的工作。然而,目前的大部分学术研究主要集中在模型的构建、优化等方面,对数据预处理的理论研究甚少,可以说,很多数据预处理工作仍然是靠工程师的经验进行的。从业数据建模/挖掘工作也有近2年的时间,在这里结合谈一谈数据预处理中归一化方法。
2017-04-10 18:55:42 286
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人