题目意思:SVM优化:训练集大小上的反比关系
摘要:We discuss how the runtime of SVM optimization should decrease as the size of the training data increases. We present theoretical and empirical results demonstrating how a simple subgradient descent approach indeed displays such behavior, at least for linear kernels.
摘要非常简明扼要,两句话就将“做什么”,“怎么做”,“结果”说出来了。
在使用SVM进行训练时,训练时间往往随着数据集的增加而增加,作者提出了一个简单的“子梯度下降法“实现了随着训练集的增加,训练时间反而减少。
作者用一个例子来说明了问题的起源:如何我们使用大小为1万的的训练集就可以训练出满足误差阈值的分类器,那当我们使用大小为10万的训练集时,前面说了,使用其中的1万就可以训练出分类器了,那我们能否使用剩下的9万来加速我们的训练过程呢?