简单的神经网络提高精度的方法(学习心得)——MNIST手写数字集

本文介绍了在不使用LSTM和卷积神经网络的情况下,如何提高MNIST手写数字识别的准确率。通过调整批次大小、增加隐藏层、改变权重初始化、使用交叉熵代价函数、优化学习率以及增加训练次数,可以显著提升模型的性能。实验发现,交叉熵比二次代价函数收敛更快,效果更好。加入优化器后,模型精度进一步提高到96%。
摘要由CSDN通过智能技术生成

初始的代码

//载入数据集
//one_hot 转化数据某一位是1 其他位为0
mnist =input_data.read_data_sets("D:\Python\MNIST_data",one_hot=True)

//每个批次的大小 以矩阵形式一次性放入200张到神经网络中去 
batch_size=200 
//计算一共有多少个批次=总量/批次 
n_batch=mnist.train.num_examples//batch_size

//定义两个placeholder
x=tf.placeholder(tf.float32,[None,784])#none和批次有关
y=tf.placeholder(tf.float32,[None,10])#y是标签

//创建一个简单的神经网络
//输入层784个神经元 输出层10个神经元
//权值,偏置值
W=tf.Variable(tf.zeros([784,10]))
b=tf.Variable(tf.zeros([10]))
prediction=tf.nn.softmax(tf
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值