文章重要内容摘要:
1. 为什么要有在线学习:无论是线性回归(Linear Regression)、逻辑回归(Logistic Regression)、支持向量机(SVM)、深度学习(Deep Learning)中,最优化求解都是基本的步骤。常见的梯度下降、牛顿法、拟牛顿法等属于批量处理的方法(Batch),每次更新都需要对已经训练过的样本重新训练一遍。当我们面对高维高数据量的时候,批量处理的方式就显得笨重和不够高效,因此需要在线处理的方法来解决相同的问题。而稀疏性对于高维特征向量以及大数 据集又特别的重要。
2. 随机梯度下降可以作为一种在线学习(模型训练)的情况,但是稀疏性不行,原因:
先解释L1正则化为什么会产生稀疏解&