深度学习小白——TensorFlow 一 简介

本文介绍了TensorFlow的基本概念和运行流程,包括Tensor、Variable、Session的使用,并通过MNIST数据集建立单层神经网络模型。此外,还提及了5层全连接神经网络的构建和训练过程。
摘要由CSDN通过智能技术生成
                                   

我选择tensorFlow作为我学习的第一个神经网络框架,恰巧最近Tensorflow支持了windows,所以让我的学习变得更加便捷。

一、TensorFlow的运行流程

TensorFlow运行流程分为两步,分别是构造模型训练。

在构造阶段,我们需要去构建一个图(Graph)来描述我们的模型,然后在session中启动它。所谓图,可以理解为流程图,就是将数据的输入输出的过程表示出来


但是此时是不会发生实际运算的,因为TensorFlow是【延迟执行(deferred execution)】模型,它必须知道你要计算什么,你的执行图,然后才开始发送计算任务到各种计算机。所以你首先使用TensorFlow函数在内存中创造一个计算图,然后启动一个执行session并且使用session.run执行实际训练任务,如梯度计算等操作,在此时,图无法被改变。


1.1基本概念

1.1.1 Tensor

Tensor的意思就是张量,我的理解就是一个维数不定的矩阵,也可以理解为tensorflow中矩阵的表示形式,tensor的生成方式有很多种,之后再详细总结,举个例子


  
  
  
  1. import tensorflow as tf
  2. a=tf.zeros(shape=[ 1, 2])
  • 1

注意:在session.run之前,所有数据都是抽象的概念,也就是说,a此时只是表示这应该是一个1*2的零矩阵,但却没有实际赋值,所以如果此时print(a),就会出现如下情况:


  
  
  
  1. print(a)
  2. #==>Tensor("zeros:0", shape=(1, 2), dtype=float32)
  • 1

只有启动session后,才能得到a的值


  
  
  
  1. sess=tf.Session()
  2. print(sess.run(a))
  3. [[ 0.  0.]]
  • 1

如果你想要系统地学习人工智能,那么推荐你去看床长人工智能教程。非常棒的大神之作,教程不仅通俗易懂,而且很风趣幽默。点击这里可以查看教程。


1.1.2. Variable

当训练模型的时候,要用变量来存储和更新参数,变量包含张量(Tensor)存放于内存的缓存区,建模时它们需要被明确地初始化,模型训练后它们b必须被存储到磁盘。这些变量的值可在之后模型训练和分析时被加载。

如我要计算 y=ReLU(Wx+b)

那么W,b就是我要用来训练的参数,那么这两个值就可以用Variable来表示,Variable初始函数有很多选项,这里先不提,只输入一个tensor也是可以的

W=tf.Variable(tf.zeros((1,2)))
  
  
  
  • 1

如果


  
  
  
  1. v=tf.Variable(tf.zeros(( 1, 2)))
  2. sess=tf.Session()
  3. #print(sess.run(v))  #会报错,因为没对变量初始化
  4. sess.run(tf.initialize_all_variables()) #对所有变量初始化
  5. print(ses
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值