自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 基于tensorflow和mnist的LeNet-5模型实现

代码如下 # LeNet-5import tensorflow as tf import input_datadef Weight(shape): init = tf.truncated_normal(shape, stddev = 0.1, dtype = tf.float32) return tf.Variable(init)def Bias(shape): init =

2017-01-25 16:45:11 1066

原创 在Tensorflow官方文档中文版中关于深入MNIST中卷积神经网络代码中常数浅析

有关于CNN的细节请参考CNN相关概念,这里不在赘述。下面的说明中将直接使用英文术语(不同人对中文术语叫什么也许有歧义)也许有不少人像我一样,对在深入MNIST中卷及神经网络部分中的常数有很多不解。下面让我说明一下各种奇妙的常数的来历。同时推荐大家,如果对函数有疑惑的话,看看官网对于api的说明Tensorflow API documentation从头梳理吧。def conv2d(x, W):

2017-01-19 22:44:42 296

原创 Convolutional Neural Networks(CNN) 有关概念

在浅层神经网络中,我们一般采用fully connected layer(全连接层)进行层和层的连接。 即Output=f(Wx+b)Output=f(Wx+b),其中ff是一个非线性函数。 从上面的表达式中,我们可以看出,这层的任何一个输出神经元都和全部的输入神经元相连。随着网络的加深,如何加快训练速度变成了一个很现实的问题。我们采取了一种方法:CNNs来显著减少参数个数,从而加快了训练速度。

2017-01-19 19:12:19 469

原创 基于Anaconda的TensorFlow安装,Windows,Linux,Ubuntu

先来安装anaconda。 需要注意的是,要把环境变量添加到系统中,里面有一个选项是有关于这个的。要不就需要手动cd到anaconda3\bin下面再执行指令。由于安装tensorflow的时候,用pip install tensorflow指令一直会出错,就算用官网的pip install --upgrade https://storage.googleapis.com/tensorflow/w

2017-01-18 19:38:56 2768

原创 用tensorflow实现的,基于mnist数据集上的一个简易模型

如果设 xx为原始图像 W1W_1为第一层的权重 b1b_1为第一层的bias W2W_2为第二层的权重 b2b_2为第二层的bias yy为神经网络的输出 那么,这个简单的小模型可以表述为 y=softmax(tanh(xW1+b1)+b2)y = softmax(tanh(xW_1+b_1)+b_2) 用tanh可以让输出有正有负,个人觉得对第二层效果可能会更好。实现的代码如下

2017-01-17 20:08:43 471

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除