TensorFlow学习笔记
文章平均质量分 74
记录我在学习TensorFlow过程中的笔记
Microstrong0305
菜鸟程序猿
展开
-
TensorFlow中使用GPU方法
1. Tensorflow中指定程序在哪一块GPU上训练Python中代码:import os# 使用第一张与第三张GPU卡os.environ["CUDA_VISIBLE_DEVICES"] = "0, 2"命名行代码:CUDA_VISIBLE_DEVICES=0,2 python train.py 2. 按需增加GPU的内存import tensorflow ...原创 2019-03-25 15:48:23 · 6779 阅读 · 1 评论 -
Tensorflow中scope命名方法
两篇文章掌握Tensorflow中scope用法:【1】Tensorflow中scope命名方法(本文)【2】Tensorflow中tf.name_scope() 和 tf.variable_scope() 的区别微信公众号1. tf.name_scope()在 Tensorflow 当中有两种途径生成变量 variable,一种是 tf.get_variable(),另一种...原创 2018-12-04 17:02:27 · 2315 阅读 · 0 评论 -
Tensorflow学习之Autoencoder(三)图片降维的结果展示
三篇文章掌握Autoencoder:1. Tensorflow学习之Autoencoder(一)2. Tensorflow学习之Autoencoder(二)图片降维并还原图片3. Tensorflow学习之Autoencoder(三)图片降维的结果展示微信公众号实现功能:在自编码器(autoencoder)中有编码器(encoder)和解码器(decoder)。我们只看...原创 2018-11-14 15:10:18 · 4019 阅读 · 1 评论 -
Tensorflow学习之Autoencoder(二)图片降维并还原图片
三篇文章掌握Autoencoder:1. Tensorflow学习之Autoencoder(一)2. Tensorflow学习之Autoencoder(二)图片降维并还原图片3. Tensorflow学习之Autoencoder(三)图片降维的结果展示微信公众号实现功能:用Tensorflow实现Autoencoder,通过对图片特征的压缩并解压,将结果与原始数据进行对...原创 2018-11-13 20:18:58 · 3793 阅读 · 11 评论 -
Tensorflow学习之Autoencoder(一)
三篇文章掌握Autoencoder:1. Tensorflow学习之Autoencoder(一)2. Tensorflow学习之Autoencoder(二)图片降维并还原图片3. Tensorflow学习之Autoencoder(三)图片降维的结果展示微信公众号1. 什么是自编码器(Autoencoder)?自编码器是一种神经网络的形式。人工神经网络是一种具有层次结构...原创 2018-11-13 18:31:31 · 2303 阅读 · 1 评论 -
Allowing GPU memory growth
默认情况下,TensorFlow会占用所有GPUs的所有GPU内存(取决于CUDA_VISIBLE_DEVICES这个系统变量),这样做可以减少内存碎片,更有效地利用设备上相对宝贵的GPU内存资源。在某些情况下,该进程仅仅需要分配可用内存的一部分,或者根据该进程的需要来增加内存的使用量。TensorFlow在Session上提供了两个Config选项来进行控制。第一个是“allow_gro...翻译 2018-08-14 19:21:08 · 2533 阅读 · 0 评论 -
Tensorflow用循环神经网络中的LSTM实现回归预测
“微信公众号”一、回归预测要实现的问题这次我们会使用RNN来进行回归(Regression)的训练,使用自己创建的sin曲线预测一条cos曲线。如下图所示,我们用蓝色的sin曲线预测红色的cos曲线。二、回归预测要实现的效果经过RNN的回归训练,我们的网络预测结果和真实结果的一个比对图...原创 2018-07-21 21:19:42 · 4936 阅读 · 0 评论 -
Tensorflow中tf.name_scope() 和 tf.variable_scope() 的区别
目录一、name_scope和variable_scope的用途(1)variable_scope用途:共享变量(2)可视化用途:画Tensorboard流程图时封装二、TensorFlow中name_scope和variable_scope区别(1)TF中创建变量的方式有两种:tf.get_variable()和tf.Variable()(2)Tensorflow中有两种...原创 2018-07-20 20:57:36 · 1382 阅读 · 0 评论 -
Tensorflow实现用循环神经网络中的LSTM分类手写数字MNIST数据集
“微信公众号”这次我们用RNN来进行分类的训练,我们使用的数据集是手写数字MNIST数据集。让RNN从每张图片的第一行像素读到最后一行,然后再进行分类判断。(1)我们构建的RNN结构图。(2)最后的训练结果:(3)最后的测试结果:(4)完整的代码。# coding:utf-8import tensorflow as tffrom tensorflow.examples.tutorials.mn...原创 2018-07-01 11:35:15 · 1410 阅读 · 0 评论 -
TensorFlow中Saver保存读取
思考一个问题:我们搭建好一个神经网络,用大量的数据训练好之后,可定希望保存神经网络里面的参数,用于下次加载。那我们该怎么做呢?TensorFlow为我们提供了Saver来保存和加载神经网络的参数。一、保存(1)import所需的模块,然后建立神经网络当中的W和b,并初始化变量。import tensorflow as tfimport numpy as np# Save to file# ...原创 2018-06-22 19:54:44 · 691 阅读 · 0 评论 -
Tensorflow实现一个完整的卷积神经网络
(一)卷积神经网络结构+最终的识别精度。用Tensorflow实现一个完整的卷积神经网络,用这个卷积神经网络来识别手写数字数据集(MNIST)。我们先来看看实现的卷积神经网络结构如下图所示:接着,我们再来看看实现的这个卷积神经网络,在MNIST数据集中的测试集上的精度。我用了两种优化训练方法,对模型训练了1000次,在训练1000的过程中,每隔50次进行一次模型的精度测试。(1)批量梯度下降法(B...原创 2018-05-18 22:59:34 · 37960 阅读 · 10 评论 -
Tensorflow中Classification分类学习
这次我们会介绍如何使用Tensorflow解决Classification(分类)问题。在之前的文章中介绍的都是Regression(回归)问题。分类和回归的区别在于输出变量的类型上。通俗理解定量输出是回归,或者说是连续变量预测;定性输出是分类,或者说是离散变量预测。如预测房价这是一个回归任务;把东西分成几类,比如猫狗猪牛,就是一个分类任务。一、MNIST数据。首先准备数据(MNIST库)from...原创 2018-05-12 13:36:43 · 2127 阅读 · 0 评论 -
Tensorflow中过拟合
一、引言我们先用生活中的一个例子来比喻一下过拟合现象。说白了,就是机器学习模型过于自信,已经到了自负的阶段。那自负的坏处,大家也知道,就是在自己小的圈子里表现非凡,不过在现实的大圈子里却往往处处碰壁。所以在这个简介里,我们把自负和过拟合画上等号。二、回归分类的过拟合机器学习模型的自负又表现在那些方面呢?这里是一些数据,如果要你画一条线来描述这些数据,大多数人都会蓝线,这条线也是我们希望机器能学出来...原创 2018-05-13 11:48:04 · 2009 阅读 · 2 评论 -
Tensorflow中可视化好助手Tensorboard(二)
Tensorflow中可视化好助手Tensorboard(一)中,已经讲过如何可视化TensorBoard整个神经网络结构的过程。其实TensorBoard还可以可视化训练过程(weights、biase和outputs变化过程)。本篇文章,讲解一下可视化训练过程的图片如何产生。首先,看效果图:我们实现的神经网络还是《用Tensorflow构建一个神经网络》中的神经网络。图1:神经网络中weigh...原创 2018-05-06 21:10:03 · 438 阅读 · 0 评论 -
Tensorflow中可视化好助手Tensorboard(一)
学会用Tensorflow自带的Tensorboard去可视化我们所构建的神经网络是一个很好的学习理解方式。用最直观的流程图告诉你,你的神经网络长什么样子,有助于你发现编程中出现的问题和疑问。首先,看效果图:同时,我们也可以展开看看每层layer中的一些具体结构:其实我们展示的就是上篇文章《用Tensorflow构建一个神经网络》 的结构,地址如下:https://blog.csdn.net/pr...原创 2018-05-05 20:35:23 · 406 阅读 · 0 评论 -
用Tensorflow构建一个神经网络
今天我们用Tensorflow构建图1所示的神经网络结构。神经网络结构说明:(1)输入层:300个含有一个特征的样本。(2)隐藏层:含有一个隐藏层,隐藏层中有10个神经元节点。神经元节点的激活函数是:ReLU。(3)输出层:一个神经元节点,没有激活函数。图1:神经网络实现代码如下:#coding:utf-8# 导入本次需要的模块import tensorflow as tfimport nu...原创 2018-05-04 11:51:58 · 1709 阅读 · 0 评论 -
Tensorflow中placeholder传入值
placeholder是Tensorflow中的占位符,暂时存储变量。Tensorflow如果想从外部传入data,那就必须要用到tf.placeholder(),然后以这种形式传输数据:sess.run(***,feed_dict={input1:data1,input2:data2})例子:用Tensorflow实现两个数字相乘。import tensorflow as tfinput1 ...原创 2018-05-02 20:50:30 · 1822 阅读 · 0 评论 -
Tensorflow中Variable变量
在Tensorflow中,定义了某字符串变量,它才是变量,这一点与Python不同。定义语法:sate = tf.Variable()例子:写一个累加器。import tensorflow as tfstate = tf.Variable(3, name="counter")# print(state.name)# 定义常量oneone = tf.constant(1)# 定义加法步骤...原创 2018-05-02 20:10:35 · 1224 阅读 · 0 评论 -
Tensorflow中Session会话控制
Session是Tensorflow为了控制和输出文件的执行语句。运行Session.run()可以获得你想要的运算结果。举个例子:用Tensorflow实现两个矩阵相乘,并输出结果。首先,我们先加载Tensorflow,然后建立两个matrix,输出两个matrix相乘的结果。因为product是直接计算的步骤,所有我们要使用Session来激活product,并得到计算结果。import te...原创 2018-05-02 19:41:47 · 930 阅读 · 0 评论 -
用Tensorflow训练线性模型拟合一条直线的例子
本文代码是观看这个链接:https://morvanzhou.github.io/tutorials/machine-learning/tensorflow/2-2-example2/视频后的笔记。# 加载tensorflow和numpy两个模块import tensorflow as tfimport numpy as np# creat data'''使用 numpy 来创建我们的数...原创 2018-05-01 20:41:15 · 1270 阅读 · 0 评论