关于采用tensorflow框架中的LSTM实现google中的PTB的提问
对数据集中的原始数据进行分批次输入
为什么在计算epoch_size的过程中要-1呢?
class PTBInput(object):
“”“The input data.”""
def init(self, config, data, name=None):
self.batch_size = batch_size = config.batch_size
self.num_steps = num_steps = config.num_steps
#为何要进行-1操作
self.epoch_size = ((len(data) // batch_size) - 1) // num_steps
self.input_data, self.targets = reader.ptb_producer(
data, batch_size, num_steps, name=name