深度习经看epoch、 iteration batchsize面按自理解说说三区别:
(1)batchsize:批深度习般采用SGD训练即每训练训练集取batchsize本训练;
(2)iteration:1iteration等于使用batchsize本训练;
(3)epoch:1epoch等于使用训练集全部本训练;
举例训练集1000本batchsize=10:
训练完整本集需要:
100 iteration 1 epoch
1 iteration= 1 batch 训练一遍
1epoch=全部 batch即全部样本训练一遍
hidden_size 隐层神经元个数
hidden_units cell