- 博客(9)
- 资源 (5)
- 收藏
- 关注
转载 深度学习新星:GAN的基本原理、应用和走向
转载自:http://www.leiphone.com/news/201701/Kq6FvnjgbKK8Lh8N.html GAN是“生成对抗网络”(Generative Adversarial Networks)的简称,由2014年还在蒙特利尔读博士的Ian Goodfellow引入深度学习领域。2016年,GAN热潮席卷AI领域顶级会议,从ICLR到NIPS,大量高质量论文被发表和探讨。Ya
2017-01-25 21:10:55 10226
原创 TensorFlow之深入MNIST
执行:D:\Anaconda3>py -3 -m tensorflow.examples.tutorials.mnist.mnist_advance from __future__ import absolute_import from __future__ import division from __future__ import print_functionimpor
2017-01-10 21:54:33 598
转载 TensorFlow之MNIST机器学习入门
MNIST机器学习入门 转载自:http://www.tensorfly.cn/tfdoc/tutorials/mnist_beginners.html 这个教程的目标读者是对机器学习和TensorFlow都不太了解的新手。如果你已经了解MNIST和softmax回归(softmax regression)的相关知识,你可以阅读这个快速上手教程。 当我们开始学习编程的时候,第一件事往往是学习
2017-01-08 21:35:10 3229
转载 TensorFlow使用基础(Basic Usage)
转载自:http://www.tensorfly.cn/tfdoc/get_started/basic_usage.html 基本使用 TensorFlow的基本概念 使用图 (graph) 来表示计算任务. 在会话(Session) 的上下文 (context) 中执行图. 使用张量(tensor) 表示数据. 通过 变量 (Variable) 维护状态.
2017-01-07 20:39:44 448
原创 Caffe源码解析10:Caffe的求解(Solver)
1、先看一个Caffe Model Zoo的例子 cd到当前Caffe目录,下载meta数据,通过data\ilsvrc12\get_ilsvrc_aux.sh脚本,windows用户直接通过脚本中“http://dl.caffe.berkeleyvision.org/caffe_ilsvrc12.tar.gz”下载该数据包,解压。 将其中的imagenet_mean.binaryproto
2017-01-04 22:03:12 903
原创 Caffe源码解析9: Caffe模型
一个完整的深度学习系统最核心的两个方面是数据和模型。 一个深度学习模型通常由三部分参数组成: 可学习参数(Learnable Parameter),又称可训练参数、神经网络权重系数、权重,其数值由模型初始化参数、误差反向传播过程控制,一般不可人工干预。 结构参数(Archetecture Parameter),包括卷积层/全连接层/下采样层数目、卷积核数目、卷积核大小等描述网络结构
2017-01-03 21:17:28 671
原创 Caffe源码解析8: Net
Net在Caffe中代表一个完整的CNN模型,它包含若干个Layer实例。前面看到的各类prototxt的经典网络结构如LeNet、AlexNet等都是Caffe代码实现的一个Net对象。 1、Net基本用法 #include 在main()中添加 std::string proto("deploy.prototxt");Netfloat> nn(proto, caffe::
2017-01-03 19:48:40 1942
转载 Caffe源码解析7:Pooling_Layer
转载自:http://home.cnblogs.com/louyihang-loves-baiyan/ Pooling 层一般在网络中是跟在Conv卷积层之后,做采样操作,其实是为了进一步缩小feature map,同时也能增大神经元的视野。在Caffe中,pooling层属于vision_layer的一部分,其相关的定义也在pooling_layer.hpp的头文件中,pooling_laye
2017-01-03 19:36:44 596
转载 Caffe源码解析6:Neuron_Layer
转载自:http://home.cnblogs.com/louyihang-loves-baiyan/ NeuronLayer,顾名思义这里就是指神经元,激活函数的相应层。我们知道在blob进入激活函数之前和之后他的size是不会变的,而且激活值也就是输出 \(y\) 只依赖于相应的输入 \(x\)。在Caffe里面所有的layer的实现都放在src文件夹下的layer文件夹中,基本上很多文章里
2017-01-03 19:32:08 422
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人