机器学习算法系列(31):在线最优化求解 FTRL等onine算法

本文探讨在线学习的重要性,指出批量处理方法在处理大规模数据时的局限性,着重分析了在线最优化算法如SGD、TG、FOBOS和RDA在稀疏性方面的表现。L1-RDA因更aggressive的截断策略和避免训练不足问题,往往能获得更好的稀疏性。FTRL算法旨在结合L1-FOBOS的精度和L1-RDA的稀疏性优势。
摘要由CSDN通过智能技术生成

http://freewill.top/2017/07/26/%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0%E7%AE%97%E6%B3%95%E7%B3%BB%E5%88%97%EF%BC%8831%EF%BC%89%EF%BC%9A%E5%9C%A8%E7%BA%BF%E6%9C%80%E4%BC%98%E5%8C%96%E6%B1%82%E8%A7%A3%EF%BC%88online%20Optimization%EF%BC%89/

文章重要内容摘要:

1. 为什么要有在线学习:无论是线性回归(Linear Regression)、逻辑回归(Logistic Regression)、支持向量机(SVM)、深度学习(Deep Learning)中,最优化求解都是基本的步骤。常见的梯度下降、牛顿法、拟牛顿法等属于批量处理的方法(Batch),每次更新都需要对已经训练过的样本重新训练一遍。当我们面对高维高数据量的时候,批量处理的方式就显得笨重和不够高效,因此需要在线处理的方法来解决相同的问题。而稀疏性对于高维特征向量以及大数 据集又特别的重要。

2. 随机梯度下降可以作为一种在线学习(模型训练)的情况,但是稀疏性不行,原因:

先解释L1正则化为什么会产生稀疏解&

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值