tensorflow
骑着蜗牛逛世界
只当个人学习记录之用
展开
-
tensorflow笔记-----1-----tensorflow实现线性回归
先借助公式y=0.1X+0.3随机生成1000个点,在均方误差和随机梯度下降求W和b#! /usr/bin/python# -*-coding:utf-8 -*-__author__ = "chunming"import tensorflow as tfimport numpy as npimport matplotlib.pyplot as plt#随机生成1000个点,模...原创 2018-08-12 20:50:47 · 155 阅读 · 0 评论 -
(2)tensorflow不易记忆api
把解压之后获得的goole v3的图结构保存到log文件夹中,以便于tensorboard展示tf读取文件,一次性读取多行字符串左右删除特定字符函数判断字符串是以什么字符开始创建默认图来存放goole训练好的模型通过网络结构中的名字来获取其张量值eval函数的输出也可以借助feed_dict方式喂进去获取张量的形状get_shape().as...原创 2019-06-12 17:31:42 · 108 阅读 · 0 评论 -
tensorboard:命名空间、参数可视化、embedding可视化数据集分类过程
命名空间代码:总结:网络中与结构没关系的代码不用定义命名空间# coding: utf-8import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_data#载入数据集mnist = input_data.read_data_sets("./MNIST_data",one_hot=T...原创 2018-08-21 18:44:10 · 883 阅读 · 0 评论 -
保存和加载模型
save# coding: utf-8import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_data#载入数据集mnist = input_data.read_data_sets("./MNIST_data",one_hot=True)#每个批次100张照片batch_size =...原创 2018-08-21 16:42:35 · 161 阅读 · 0 评论 -
LSTM对mnist数据集分类
把28*28的mnist数据集看成28个28输入的序列# coding: utf-8import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_data#载入数据集mnist = input_data.read_data_sets("./MNIST_data/",one_hot=True)...原创 2018-08-21 16:35:39 · 1888 阅读 · 0 评论 -
代价 函数、优化器
二次代价函数交叉熵损失函数对数似然代价函数NAGAdagrad:RMSpropAdadeltaAdam原创 2018-08-21 08:51:57 · 206 阅读 · 0 评论 -
CNN用于mnist数据集分类
CNN通过感受野和权值共享减少了神经网络需要训练的参数个数卷积操作:PADDing池化操作:PADDing# coding: utf-8import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_datamnist = input_data.read_data_sets('./...原创 2018-08-20 21:56:35 · 1221 阅读 · 0 评论 -
交叉熵损失用于mnist分类、Dropout用于两层神经网络用于mnist分类、Adam、不断减小的学习率用于mnist分类
softmax+交叉熵损失用于mnist分类# coding: utf-8import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_data#载入数据集mnist = input_data.read_data_sets("./MNIST_data",one_hot=True)#每个批次的...原创 2018-08-20 20:15:32 · 407 阅读 · 0 评论 -
模拟非线性回归、softmax分类mnist数据集
建立一个一个输入神经元,中间隐藏层10个神经元,输出为1个神经元的神经网络用于模拟非线性回归# coding: utf-8import tensorflow as tfimport numpy as npimport matplotlib.pyplot as plt#使用numpy生成200个随机点x_data = np.linspace(-0.5,0.5,200)[:,np.ne...原创 2018-08-20 19:55:46 · 363 阅读 · 0 评论 -
创建图、启动图、常变量、assign赋值操作、Fetcg和Feed、模拟线性回归、
创建图启动图tf.multipy和tf.matmul两种矩阵操作的区别#__author:Administrator#date:2018/8/17import tensorflow as tfa=tf.constant([[2,3]])b=tf.constant([[2],[3]])c=tf.multiply(a,b)d=tf.matmul(a,b)print(c)...原创 2018-08-17 07:06:58 · 162 阅读 · 0 评论 -
tensorflow笔记----5-----模型的保存和读取
1----------把声明的变量保存为模型存储到本地,保存和加载同一个模型别同时运行,会报错#! /usr/bin/python# -*-coding:utf-8 -*-__author__ = "chunming"#模型参数保存到本地import tensorflow as tfv1 = tf.Variable(tf.random_normal([1,2]), name="v1...原创 2018-08-13 22:37:49 · 201 阅读 · 0 评论 -
tensorflow笔记----3---ANN对mnist数据集分类
tensorfllow实现两层MLP对mnist分类,第一层256个神经元,第二层128个神经元,输入784,输出10分类#! /usr/bin/python# -*-coding:utf-8 -*-__author__ = "chunming"import tensorflow as tffrom tensorflow.examples.tutorials.mnist import ...原创 2018-08-13 14:26:41 · 1296 阅读 · 0 评论 -
tensorflow笔记----4----CNN实现对mnist的数据分类
第一层卷积:64个卷积核3*3*1,步长1,padding为1第二层卷积:128个卷积核3*3*64,步长1,padding为1两次卷积操作后图片大小都不变两次pool都使得图片尺寸缩为原来一半图片变化整个过程:28*28-------->28*28*64-------->14*14*64------>14*14*128-------->7*7*128...原创 2018-08-12 21:24:55 · 139 阅读 · 0 评论 -
tensorflow笔记-----2---softmax和逻辑回归对mnist数据集分类
#! /usr/bin/python# -*-coding:utf-8 -*-__author__ = "chunming"import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_datamnist= input_data.read_data_sets('data/', one_hot=T...原创 2018-08-12 21:19:34 · 239 阅读 · 0 评论 -
(1):tensorflow不易记忆api
、按第一个维度打乱numpy转换为张量生成区间内的随机数自己定义交叉熵损失np.random.randint()第一个参数是随机数取值的范围,第二个参数是生成的个数plt.matshow()函数:将二维矩阵以图片格式显示模型的保存与重载保存图模型,tensorboard展示为numpy数组添加一个维度get...原创 2019-06-08 21:52:39 · 154 阅读 · 0 评论