【TensorFlow】——实现minist数据集分类的前向传播(常规神经网络非卷积神经网络)

目录

一、常规神经网络模型

二、TensorFlow实现前向传播步骤

1、读取数据集

2、batch划分

3、根据神经网络每一层的神经元个数来初始化参数w,b

4、进行每一层输入输出的计算

5、对每一层的输出进行非线性relu函数变换

6、计算一个batch训练后的误差loss

7、计算每一次loss对参数的梯度

8、根据梯度进行参数的迭代

三、常见错误纠错

1、tf.Variable()忘记使用——将需要求导的参数进行该操作,系统会自动记录导数的变化

2、迭代后的参数会自动变成tensor,而不是variable进而报错

3、梯度爆炸的解决——将初始化参数时的方差改小

4、几个循环


一、常规神经网络模型

二、TensorFlow实现前向传播步骤

这里以UCI中的手写数字集作为数据训练集,假设神经网络层数有4层

输入层:1

隐层:2

输出层:1

按照batch的方式进行训练,一个batch含有128组数据

一个batch在神经网络中训练的shape变换如下:

x【128,28,28】>>>reshape>>>输入:【128,784】>>>隐层1:【128,256】>>>隐层2:【128,128】>>>输出:out【128,10】

y【128,】>>>one_hot>>>【128,10】

一个batch的loss:【128,10】

loss = (y-out)^2

1、读取数据集

 

 

2、batch划分

因为minis数据集数据量庞大,如果一个一个样本进行训练会非常耗时,因此将一定数量的样本组合成一个batch,每次对一个batch进行训练,这样会提高训练效率,又不会影响训练出来神经网络的准确性

3、根据神经网络每一层的神经元个数来初始化参数w,b

每一层的w的个数为:上一层神经元数*下一层神经元数

每一层的b的个数为:当前层的神经元个数

4、进行每一层输入输出的计算

5、对每一层的输出进行非线性relu函数变换

6、计算一个batch训练后的误差loss

7、计算每一次loss对参数的梯度

利用TensorFlow求解loss对各个参数进行求导时,必须将输入输出的求解以及loss的求解放在上图红色框的内部

8、根据梯度进行参数的迭代

三、常见错误纠错

1、tf.Variable()忘记使用——将需要求导的参数进行该操作,系统会自动记录导数的变化

2、迭代后的参数会自动变成tensor,而不是variable进而报错

这样的话我们就需要利用一个函数,使得迭代变量参数的值发生改变但是对象不会发生改变

 

3、梯度爆炸的解决——将初始化参数时的方差改小

梯度爆炸就是指梯度突然非常大,导致后面进行后向传播时,loss不断地增大,得不到最优参数解

 

 

 

4、几个循环

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

有情怀的机械男

你的鼓励将是我最大的动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值