这篇笔记是基于tensorflow1.4版本,小白级别。代码是在网上下载的一个做mnist手写数字分类的LSTM,修改了两个小地方。
x = tf.split(x, n_steps, 0)
cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels=y, logits=pred))
- Batch-size
增大 Batch_Size 有何好处?
内存利用率提高了,大矩阵乘法的并行化效率提高。跑完一次 epoch(全数据集)所需的迭代次数减少,对于相同数据量的处理速度进一步加快。在一定范围内,一般来说 Batch_Size 越大,其确定的下降方向越准,引起训练震荡越小。
盲目增大 Batch_Size