Batch-size:一次训练所用的样本数。
epoch:一个epoch指代所有的数据送入网络中完成一次前向计算及反向传播的过程。
Batch-number:完成一个epoch所需的batch个数。也就是Iterations
例子:2000个数据,分成4个batch,那么batch size就是500。运行所有的数据进行训练,完成1个epoch,需要进行4次iterations。
LEARNING_RATE = 0.0001 学习率
DECAY_STEPS = 30000 # 每迭代DECAY_STEPS次,learning_rate = learning_rate * DECAY_RATE
DECAY_RATE = 0.1 # 学习率衰减系数
SUMMARY_ITER
tf.placeholder函数说明:https://blog.csdn.net/kdongyi/article/details/82343712
slim.conv2d函数的变量解释和padding方式中same与vaild的差别:https://blog.csdn.net/weixin_43958728/article/details/104998134