1.深度学习中的batchsize, iterator, epoch
batchsize:批大小,比如SGD中的BP一次就是用的一批的数据
iterator:迭代次数,1个iterator相当于用一个batch训练一次
epoch:训练集中全部的数据被用过一次,叫一个epoch
举个例子,在不考虑每个batch之间发生样本交叉的情况下,假设有1000个样本,batchsize是10,那么用过全部的样本训练模型,需要1个epoch,100次iterator.
2.gallery set (参考图像集或者原型图像集) Probe set(测试图像集合)
该论文的19页有如下描述:在FERET 评估协议中,算法设计者需要区分三个不同的集合:训练集,参考图像集(或者
原型图像集,gallery set)、测试图像集合(Probe set=test set),其中gallery 集和probe 集供测试时使用。“训
练必须在测试开始之前完成”暗示训练是离线完成的,算法不能根据Gallery 集来调整系统参数
具体见http://parnec.nuaa.edu.cn/xtan/paper/TanXY-thesis-final.pdf
通过和Ran He老师讨论已经彻底搞清楚了:
比如他的CVPR 2012论文,用PCA+NN。人脸识别是一个开集问题,人脸验证verification是一个闭集问题。训练样本可能是甲乙,测试样本可能是丙丁。通过训练样本来学习PCA的