Smooth Bilevel Programming for Sparse Regularization

该文介绍了一种新的稀疏正则化算法,通过平滑优化方法解决机器学习中的稀疏强制回归问题。与迭代加权最小二乘法(IRLS)相比,该方法只需解决线性系统且对应于平滑函数的最小化,适用于各种正则化任务,如Lasso、组Lasso和跟踪范数。理论分析证明了函数无伪极小值,确保了优化过程的全局收敛性。数值实验显示该方法在处理小正则化强度和硬约束时表现出色,且与最新求解器相比具有优势。
摘要由CSDN通过智能技术生成

Smooth Bilevel Programming for Sparse Regularization 稀疏正则化的平滑二层规划

英国巴斯大学,数学科学系

2021.6.4

 原文链接:https://arxiv.org/pdf/2106.01429.pdficon-default.png?t=LBL2https://arxiv.org/pdf/2106.01429.pdf

 摘要:迭代加权最小二乘(IRLS)是机器学习中解决稀疏强制回归问题的一种流行方法。最先进的方法是更有效的,但通常依赖于特定的协调剪枝方案。在这项工作中, 展示了一个非常简单的irl再参量化,再加上一个上下两层的分辨率(而不是一个交流计划)能够实现最高性能广泛的稀疏(如套索,集团套索和跟踪规范合法化),正则化强度(包括硬约束),以及设计矩阵(从相关设计到微分算子)。与IRLS类似,我们的方法只涉及线性系统分辨率,但与之形成鲜明对比的是

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

HelloWorld__来都来了

来都来了 福寿双全

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值