长时间就会忘记,留作备用
epoch:意思是指把整个数据训练一次,一个epoch就证明把数据集在神经网络下跑了一次
batch_size:指每次放多少个数据进网络中
iteration:指把一整个数据按照batch_size等分,一般是计算机自己算。
通常需要我们自己给定epoch,batch_size,
例如:我们给定epoch=200,batch_size=20,数据集一共1000条数据,
那么iteration=1000/20=50
同时,batch_size的大小会影响显存的占比,一般显存要是不够,就把batch_size调小!