1.batch_size与epoch
batch_size 表示每次处理的样本的数目,loss=loss(x1)+loss(x2)+…loss(x_batch_size)=f(w1)+f(w2)+…f(w_n)
f(w)表示从众多loss中提取的w_m的分量之和,其实不这么写也没关系,不过是求偏导的时候变成求众loss对某w的偏导之和
epoch_num: 表示要训练几轮,每一轮所有的样本都会参加,分数次进行,每一次选batch_size个样本来训练模型并进行一次模型的权重更新
2.图像输入与卷积层各维度对应的意义
图像
卷积核:(n,d,w,h),可以认为是n表示多少个(输出)通道,d表示每个通道的深度,w与h表示长宽
图像:(n,c,w,h),n表示批量数,c表示每个批量的深度(灰度图为1.rgb图为3),w与h表示长宽