深度学习(初识tensorflow2

本文介绍了如何运用神经网络解决仅有两个数据的学生综合成绩预测问题,详细阐述了神经网络模型结构、权重定义、TensorFlow代码实现,以及如何通过占位符和会话进行模型运行和参数初始化。
摘要由CSDN通过智能技术生成

| 98 * w1 + 95 * w2 + 87 * w3 = 96 |

从数学中解方程式的方法来说,这两个式子中一共有3个未知数,理论上只要有3个不等价的式子,就可以解出答案了。但我们恰恰只有两个学生的数据,只能凑出两个式子,也就无法用解方程的方法解决这个问题。那么这时候,就可以用到神经网络的方法来尝试解决这个问题。


搭建解决三好学生成绩问题的神经网络

理论知识

神经网络模型图一般均包含1个输入层、1个或多个隐藏层,以及1个输出层。

②一般来说, 输入层是描述输入数据的形态的;我们用方块来代表每条输入数据的一个数 (或者叫一个字段),叫作输入节点;输入节点一般用x来命名,如果有多个数值,则用x1,x2,…,xn来代表。

隐藏层是描述我们设计的神经网络模型结构中最重要的部分;隐藏层可能有多个;每一层中都会有1个或多个神经元,我们用圆圈来表示,叫做神经元节点或隐藏节点,有时也直接简称为节点;每一个节点都接收上一层传来的数据并进行一定的运算后向下一层输出数据,符合神经元的特性,神经元节点上的这些运算称为计算操作或操作(operation,简称op)

输出层一般是神经网络模型的最后一层,会包含1个或多个以菱形表示的输出节点,输出节点代表着整个神经网络计算的最后结果:输出层的节点一般习惯上用y来命名,但并非必须。

⑤我们在神经网络模型图中,一般约定在各个节点的右下方(有时候因为拥挤也会在左下方)标记节点的名称,在节点的左上方标记该节点所做的计算,例如,x1、x2、x3、n1、n2、n3、y都是节点名称,“*w1”、 “*w2”、 “*w3”这些都代表节点运算。

现在我们回到模型本身,这是一个标准的前馈神经网络,即信号总是往前传递的神经网络。输入层有3个节点x1、x2、x3,分别代表前面所说的德育分、智育分和体育分。因为问题比较简单,隐藏层我们只设计了一层,其中有3个节点n1、n2、n3,分别对3个输入的分数进行处理,处理的方式就是分别乘以3个权重w1、w2、w3。输出层只有一个节点y, 因为我们只要求一个总分数值;节点y的操作就是把n1、n2、n3这3个节点输出过来的数值进行相加求和

构建的神经网络的代码

import tensorflow as tf
# placeholder和eager execution不兼容
tf.compat.v1.disable_eager_execution()

# 定义三个输入节点
x1 = tf.compat.v1.placeholder(dtype=tf.float32)
x2 = tf.compat.v1.placeholder(dtype=tf.float32)
x3 = tf.compat.v1.placeholder(dtype=tf.float32)

# 定义权重(可变参数)
w1 = tf.Variable(0.1, dtype=tf.float32)
w2 = tf.Variable(0.1, dtype=tf.float32)
w3 = tf.Variable(0.1, dtype=tf.float32)

# 隐藏层
n1 = x1 * w1
n2 = x2 * w2
n3 = x3 * w3

# 输出层
y = n1 + n2 + n3

# 会话,管理神经网络运行的一个对象
sess = tf.compat.v1.Session()

init = tf.compat.v1.global_variables_initializer()

# 在sess会话中运行初始化这个函数
sess.run(init)

# 执行一次神经网络的计算
result = sess.run([x1, x2, x3, w1, w2, w3, y], feed_dict={x1: 90, x2: 80, x3: 70})
print(result)
# [array(90., dtype=float32), array(80., dtype=float32), array(70., dtype=float32), 0.1, 0.1, 0.1, 24.0]


代码讲解

tf.compat.v1.disable_eager_execution()

需要加这个,原因是placeholder和eager execution不兼容

# 定义三个输入节点
x1 = tf.compat.v1.placeholder(dtype=tf.float32)
x2 = tf.compat.v1.placeholder(dtype=tf.float32)
x3 = tf.compat.v1.placeholder(dtype=tf.float32)

定义3个输入节点,placeholder(占位符),所谓占位符,就是在编写程序时还不确定要输入什么数,而在程序运行的时候才会输入,编程时仅仅把这个节点定义好,先“占个位子”。

dtype是“data type”的缩写,表示占位符所代表的数值的类型,tf.float32是tensorflow中的32位浮点数,即用32位二进制来代表一个小数,一般32位浮点数能满足计算的需要。

# 定义权重(可变参数)
w1 = tf.Variable(0.1, dtype=tf.float32)
w2 = tf.Variable(0.1, dtype=tf.float32)
w3 = tf.Variable(0.1, dtype=tf.float32)

这里用来定义每个分数的权重,在神经网络中,类似权重这种会在训练中经常性的变化的神经元参数,tensorflow把他们叫做变量。

定义w1、w2、w3的形式除了函数用的是tf.Variable函数外,其他与定义占位符x1、x2、x3的时候类似,还有一点不同是除了用dtype参数来指定数值类型,还传入了另一个初始值参数,这个参数没有用命名参数的形式,这是因为tf.Variable函数规定第一个参数是用于指定可变参数的初始值有可以看到,我们把w1、w2、w3的初始值都设置为0.1。

# 隐藏层
n1 = x1 * w1
n2 = x2 * w2
n3 = x3 * w3

# 输出层
y = n1 + n2 + n3

这里定义了隐藏层和输出层。


以上就完成了神经网络模型的定义,接下来看看如何在这个神经网络中输入数据并得到运算结果。

# 会话,管理神经网络运行的一个对象
sess = tf.compat.v1.Session()

init = tf.compat.v1.global_variables_initializer()

# 在sess会话中运行初始化这个函数
sess.run(init)

首先定义一个sess变量,它包含一个会话(session)对象,我们可以把会话简单的理解为管理神经网络运行的一个对象,有了会话对象,我们的神经网络就可以正式运转。

会话对象管理神经网络的第一步,一般是要把所有的可变参数初始化,也就是给所有可变参数一个各自的初始值,

首先让变量init 等于global_variables_initializer 这个函数的返回值,它返回的是一个专门用于初始化可变参数的对象。然后调用会话对象sess的成员函数run(),带上init变量作为参数,就可以实现对我们之前定义的神经网络模型中所有可变参数的初始化。run(init)就是在sess会话中运行初始化这个函数。具体给每个可变参数赋什么样的初值,是由我们刚才在定义w1、w2、w3时的第一个参数来决定的。我们把它设置为了0.1.

# 执行一次神经网络的计算
result = sess.run([x1, x2, x3, w1, w2, w3, y], feed_dict={x1: 90, x2: 80, x3: 70})
print(result)
# [array(90., dtype=float32), array(80., dtype=float32), array(70., dtype=float32), 0.1, 0.1, 0.1, 24.0]
result = sess.run([x1, x2, x3, w1, w2, w3, y], feed_dict={x1: 98, x2: 95, x3: 87})
print(result)
# [array(98., dtype=float32), array(95., dtype=float32), array(87., dtype=float32), 0.1, 0.1, 0.1, 28.0]

img
img

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化资料的朋友,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

的技术提升。**

需要这份系统化资料的朋友,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值