深度学习---三好学生各成绩所占权重问题(3)_c++评三好学生代码

sess.run(init)

for i in range(5000):
result = sess.run([train, x, w, y, yTrain, loss], feed_dict={x: [90, 80, 70], yTrain: 85})
print(result)

result = sess.run([train, x, w, y, yTrain, loss], feed_dict={x:[98, 95, 87], yTrain: 96})
print(result)

## **代码讲解**


        之前设计的神经网络模型中,把学生的德育、智育、体育3项分数分别对应x1、x2、x3这了个输入层的节点,这样本身没有问题,但是假设又增加了一个艺术分数, 那么就需要在输入层增加一个x4节点,在隐藏层对应的也要增加一个n4节点。也就是说,**输入数据改变时,即使整套逻辑没有变,也要去修改整个网络模型,比较麻烦。**


        另外,节点数多了也会让模型图看起来比较复杂。所以在通常的神经网络中,很多时候会把这种串的数据组织成一个**“向量”**来送入神经网络进行计算。这里的“向量”与数学几何中的向量概念稍有不同,**就是指一串数字**,在程序中用一个数组来表示,例如,三好学生成绩问题中第一个学生的3项分数可以用[90, 80, 70]这样一个数组就表示出来了。数组是有顺序的,可以约定第一项代表德育分、 第二项代表智育分、 第三项代表体育分。向量中有几个数字,一般就把它叫作几“维”的向量,例如刚才这个向量就是一个三维向量。



> 
> 
> ```
> x1 = tf.compat.v1.placeholder(dtype=tf.float32)
> x2 = tf.compat.v1.placeholder(dtype=tf.float32)
> x3 = tf.compat.v1.placeholder(dtype=tf.float32)
> ```
> 
> 改成了一个三维的向量存入变量x
> 
> 
> 
> ```
> x = tf.compat.v1.placeholder(shape=[3], dtype=tf.float32)
> ```
> 
>  变量x的定义语句稍有不同,其中增加了一个命名参数**shape**,这是表示变量x的形态的,它的取值是“[3]”, 表示输入占位符x的数据将是一个有3个数字的数组,也就是一个三维向量。 
> 
> 
> 



> 
> w1、w2、w3这3个可变参数也被缩减成了一个三维向量w:
> 
> 
> 
> ```
> w = tf.Variable(tf.zeros([3]), dtype=tf.float32)
> ```
> 
> 其中tf.Variable函数的第一个参数还是定义这个可变参数的初始值,由于x是一个形态为[3]的三维向量,w也需要相应地是一个形态为[3]的三维向量,而我们用**tf.zeros这个函数可以生成一个值全为0的向量**,也就是说tf.zeros([3])的返回值将是一个数组[0, 0, 0],这个向量将作为w的**初始值**。 
> 
> 
> 



> 
> **yTrain因为只是一个普通数字,不是向量,如果要给它个形态的话, 可以用一个空的方括号“[]”来代表。**
> 
> 
> 
> ```
> yTrain = tf.compat.v1.placeholder(shape=[], dtype=tf.float32)
> ```
> 
> 



> 
> 隐藏层节点变量n1、n2、n3也被缩减成一个变量 n: 
> 
> 
> 
> ```
> n = x * w
> 
> ```
> 
> 假设输入数据x为[90, 80, 70],也就是第一位学生的3项分数,此时w为[2,3,4],那么n=x\*W的运算结果就是[90 \* 2, 80\* 3, 70\* 4],即[180, 240,280]。这是因为“\*”代表数学中矩阵运算的“点乘”,**点乘是指两个形态相同的矩阵中每个相同位置的数字相乘**,结果还是和这两个矩阵形态都样的矩阵。向量的点乘与矩阵点乘的方法是一样的, 所以x \* w的计算结果还是与x或w相同形态的三维向量,其中第一维的结果是 x中的第一维的数字 90乘以w中的第一维的数字2, 即90\*2得到180,后面依此类推
> 
> 
> 



> 
> 由于我们把原来3个隐藏层节点n、n2、n3缩减成了一个向量 n,输出层节点y的计算也要做出改变: 
> 
> 
> 
> ```
> y = tf.reduce_sum(n)
> ```
> 
> **tf.reduce sum函数的作用是把作为它的参数的向量(以后还可能会是矩阵)中的所有维度的值相加求和,与原来y=n1 +n2 + n3的含义是相同的。**
> 
> 
> 



> 
> 
> ```
>     result = sess.run([train, x, w, y, yTrain, loss], feed_dict={x: [90, 80, 70], yTrain: 85})
>     print(result)
> 
>     result = sess.run([train, x, w, y, yTrain, loss], feed_dict={x:[98, 95, 87], yTrain: 96})
>     print(result)
> ```
> 
> 最后这里改变一下即可 
> 
> 
> 


## **结果展示**


![img](https://img-blog.csdnimg.cn/img_convert/5d258d75681abcb99d265622b0dd8df0.png)
![img](https://img-blog.csdnimg.cn/img_convert/3c1dfc5f4319b65b9555c1e50b2db35e.png)

**网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。**

**[需要这份系统化资料的朋友,可以戳这里获取](https://bbs.csdn.net/topics/618545628)**


**一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**

.net/topics/618545628)**


**一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值