- 博客(9)
- 资源 (9)
- 收藏
- 关注
转载 caffe 介绍1
本文简单的讲几个事情: Caffe能做什么?为什么选择caffe?环境整体结构Protocol buffer训练基本流程Python中训练Debug Caffe能做什么? 定义网络结构训练网络C++/CUDA 写的结构cmd/python/Matlab接口CPU/GPU工作模式给了一些参考模型&pretrain了的weights 为什么选择caffe? 模块化
2017-02-10 10:59:24 578
转载 Caffe代码阅读8:absval_layer层的实现
这一层比较简单:主要就是求绝对值,反传部分的代码也很简单 里头用到了caffe_abs这个函数以及caffe_cpu_sign这两个函数 需要注意的是caffe_cpu_sign在math_functions.hpp里头定义得比较特别 在math_functions.hpp里只有caffe_sign,通过一个宏定义生成了caffe_cpu_sign这个函数 整体来说没啥特别
2017-02-07 15:35:24 1590
转载 caffe代码阅读7:Caffe中卷积的实现
一、 卷积层的作用简介 卷积层是深度神经网络中的一个重要的层,该层实现了局部感受野,通过这种局部感受野,可以有效地降低参数的数目。 我们将结合caffe来讲解具体是如何实现卷积层的前传和反传的。至于是如何前传和反传的原理可以参考Notes on Convolutional Neural Networks,具体请百度或者谷歌,即可下载到。 Caffe中的master分支已经将vision_la
2017-02-07 15:33:39 1476
转载 caffe代码阅读6:SyncedMemory的j介绍与实现
一、SyncedMemory的作用简介 SyncedMemory类主要负责在GPU或者CPU上分配内存以及保持数据的同步作用。 SyncedMemory类主要应用在BLOB类中,我们可以在BLOB类中看出一些使用方法 比如: [cpp] view plain copy // blob中的reshape 的具体实现 template
2017-02-07 15:28:40 573
转载 caffe代码阅读5: Data_layers的实现细节
一、Data_layers.hpp文件的作用简介 Data_layers.hpp在目前caffe的master分支中已经不能存在了,分散到各个文件中去了。 而之前是存在于cafferoot\include\caffe中。现在已经变成了各个类的名称的头文件了。这里做个提醒 首先给出这个文件中所包含的几个与数据读取有关的类。 分别为: BaseDa
2017-02-07 15:08:21 2008
转载 caffe代码阅读4:LayerRegistry的介绍与实现
一、LayerRegistry的作用简介 LayerResistry的功能很简单,就是将类和对应的字符串类型放入到一个map当中去,以便灵活调用。主要就是注册类的功能 二、LayerRegistry类的详细介绍 1)构造函数和析构函数 构造函数 [cpp] view plain copy // 禁止实例化,因为该类都是静态函数,所以是
2017-02-07 14:42:33 906
转载 caffe代码阅读3:Filler的实现
一、Filler的作用简介 Filler层的作用实际上就是根据proto中给出的参数对权重进行初始化,初始化的方式有很多种,分别为常量初始化(constant)、高斯分布初始化(gaussian)、positive_unitball初始化、均匀分布初始化(uniform)、xavier初始化、msra初始化、双线性初始化(bilinear)这么几种。 二、Filler类的详细介绍 首先了解一
2017-02-07 14:31:20 1481 1
转载 caffe代码阅读2:DataTransformer以及io的实现细节
一、DataTransformer的作用简介 该类主要负责对数据进行预处理,将Datum、const vector、cv::Mat&、vector 、Blob*类型的数据变换到目标大小的blob。 此外还负责根据参数中指定的预处理参数推断出处理后的数据的shape。 在正式介绍之前,先给个例子: [cpp] view plain copy
2017-02-07 14:22:03 1476
转载 caffe代码阅读1:Layer的介绍与实现细节
一、Layer的作用简介 Layer实际上定义了Layer的基本操作,即初始化层、前向传播和反向传播。在前向传播中根据bottom blob得到top blob,反向传播则根据top反传到bottom。而且在前传的时候还可以计算loss,一般来说只有最后一层才会计算loss,虽然每个层都有计算loss的功能。Layer类在没有实现GPU前传和反传的时候会自动使用CPU的实现。下面给出Layer类
2017-02-07 14:16:25 870
斯坦福 兔子3d模型 The Stanford 3D Scanning Repository 用于点云配准、表面重建
2022-08-03
AlphaPose人体姿态识别
2020-12-07
Pytorch深度学习实战教程 包含语义分割基础与环境搭建、UNet语义分割网、UNet模型训练
2020-11-26
Pytorch深度学习实战教程。包含语义分割基础与环境搭建、UNet语义分割网、UNet模型训练
2020-11-26
PyQt5-5.15.0-5.15.0-cp35.cp36.cp37.cp38-abi3-manylinux2014-x86-64.whl
2020-06-30
《神经网络与机器学习》资料,包括课件、课后习题解答以及代码
2016-06-21
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人