tensorflow
thiswill
这个作者很懒,什么都没留下…
展开
-
用tensorflow实现的,基于mnist数据集上的一个简易模型
如果设 xx为原始图像 W1W_1为第一层的权重 b1b_1为第一层的bias W2W_2为第二层的权重 b2b_2为第二层的bias yy为神经网络的输出 那么,这个简单的小模型可以表述为 y=softmax(tanh(xW1+b1)+b2)y = softmax(tanh(xW_1+b_1)+b_2) 用tanh可以让输出有正有负,个人觉得对第二层效果可能会更好。实现的代码如下原创 2017-01-17 20:08:43 · 468 阅读 · 0 评论 -
基于Anaconda的TensorFlow安装,Windows,Linux,Ubuntu
先来安装anaconda。 需要注意的是,要把环境变量添加到系统中,里面有一个选项是有关于这个的。要不就需要手动cd到anaconda3\bin下面再执行指令。由于安装tensorflow的时候,用pip install tensorflow指令一直会出错,就算用官网的pip install --upgrade https://storage.googleapis.com/tensorflow/w原创 2017-01-18 19:38:56 · 2767 阅读 · 0 评论 -
在Tensorflow官方文档中文版中关于深入MNIST中卷积神经网络代码中常数浅析
有关于CNN的细节请参考CNN相关概念,这里不在赘述。下面的说明中将直接使用英文术语(不同人对中文术语叫什么也许有歧义)也许有不少人像我一样,对在深入MNIST中卷及神经网络部分中的常数有很多不解。下面让我说明一下各种奇妙的常数的来历。同时推荐大家,如果对函数有疑惑的话,看看官网对于api的说明Tensorflow API documentation从头梳理吧。def conv2d(x, W):原创 2017-01-19 22:44:42 · 293 阅读 · 0 评论 -
基于tensorflow和mnist的LeNet-5模型实现
代码如下# LeNet-5import tensorflow as tfimport input_datadef Weight(shape): init = tf.truncated_normal(shape, stddev = 0.1, dtype = tf.float32) return tf.Variable(init)def Bias(shape): init =原创 2017-01-25 16:45:11 · 1065 阅读 · 0 评论