莫烦PYTHON | Tensorflow教程——Tensorflow基础构架(第二章)

本文是Tensorflow教程的第二章,讲解了Tensorflow的计算图纸、Tensor张量的意义、Session会话控制、Variable变量、Placeholder传入值以及激励函数。介绍了如何构建数据流图,并解释了张量的不同阶数。此外,还讨论了Session的使用方法、变量的初始化和传入外部数据的占位符。最后,文章深入探讨了激励函数的作用及其在神经网络中的重要性,包括常见激励函数的选择。
摘要由CSDN通过智能技术生成

2.1 处理结构

计算图纸

Tensorflow首先要定义神经网络的结构,然后再把数据放入结构当中进行运算和训练。
这里写图片描述
我们要做得就是要建立一个这样的结构,然后把数据放进去,之后tensorflow就可以自己运行,tensorflow字面意思翻译过来就是向量在里面飞
这里写图片描述
上图就是一个循环,从输入层输入数据,数据飞到隐藏层再到输出层,用梯度下降法处理,完成对几个参数的更新,用更新之后的参数再次应用到隐藏层中去学习,不停的循环直至结果收敛。
TensorFlow是采用数据流图(data flow graphs)来计算,所以首先我们得创建一个数据流流图,然后再将我们的数据(数据以张量(tensor)的形式存在)放在数据流图中计算。节点(Nodes)在图中表示数学操作,图中的线(edges)则表示在节点间相互联系的多维数据数组,即张量(tensor)。训练模型时tensor会不断的从数据流图中的一个节点flow到另一节点,这就是TensorFlow名字的由来。

Tensor 张量意义

张量有多种:
零阶张量:纯量/标量(scalar),是一个数值,比如[1]
一阶张量:向量(vector)一维
二阶张量:矩阵(matrix)二维
等等

2.2 例子2

#加载这两个模块,并使用numpy来创建我们的数据
import tensorflow as tf 
import numpy as np #科学计算的模块

# create data
x_data = np.random.rand(100).astype(np.float32) #随机生成100个数,定制成float32的形式
y_data = x_data*0.1 + 0.3

###开始创建结构###
Weights = tf.Variable(tf.random_uniform([1], -
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值