【MIT博士论文】大规模机器学习算法:效率、估计误差及其拓展

af023285cd6fbc8d718503bb980870fc.png

来源:专知
本文为论文介绍,建议阅读5分钟某些简单而有效的启发式方法在适当的统计框架内可以表现出令人赞叹的估计精度。

86d2f94b794ac3f2d1331ac6df6b9211.png

优化算法是机器学习和统计推断的基石。随着大规模数据集的出现,计算挑战日益增加,迫使人们追求更高效的算法。现代优化技术通常针对特定的机器学习问题进行定制,这些方法利用问题的独特结构特征,使其比当前应用于这些问题的方法效率更高。另一个关键方面是理解所得到估计量的估计精度。在某些情况下,尽管在训练集上实现精确优化可能不切实际,但某些简单而有效的启发式方法在适当的统计框架内可以表现出令人赞叹的估计精度。

在本文中,我们从优化和统计的角度研究了几种大规模算法。第2章和第3章研究了两种针对结构约束的连续优化算法。第2章集中讨论了具有圆柱形约束的无界约束的一种广义Frank-Wolfe方法。第3章则研究了具有少量极点的多面体约束的类似坐标下降(CD)方法。这两种方法由于对问题结构的敏感性而表现出最先进的性能。

第4章研究了一种带有解释器-响应对之间可能存在不匹配的线性回归变体。我们研究了一种简单且高效的启发式方法,并在统计环境中对其估计误差进行了严格分析。

第5章和第6章研究了两种决策树算法。第5章研究了最优决策树的计算,并引入了一种新的分支定界方法,用于具有一般连续特征的最优决策树。第6章则转向在足够杂质减少条件下对CART算法的分析。我们为满足该条件的信号函数证明了严格的误差界,并讨论了一些满足该条件的函数类。

第7章研究了一种具有形状约束的密度估计问题。我们提出了一种立方-牛顿法框架用于计算,并研究了有限混合的逼近性质。

d8b1899877520a73f557bfde2afbc046.png

72ad270aad81330873158ed303ba708f.png

ea4e875ee278b1987b7de86b7dfe0bde.png

8bdc3eceaadce7dcd9486069caf18857.png

7f29062be7909818cc5aa1719df3feb3.png

关于我们

数据派THU作为数据科学类公众号,背靠清华大学大数据研究中心,分享前沿数据科学与大数据技术创新研究动态、持续传播数据科学知识,努力建设数据人才聚集平台、打造中国大数据最强集团军。

6cac4d85f277de44a4565e3b87c65a62.png

新浪微博:@数据派THU

微信视频号:数据派THU

今日头条:数据派THU

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值