干货!一种面向条件梯度优化方法的迭代效率提升策略

点击蓝字

81c58f478024de55fce2268ad4491b20.png

关注我们

AI TIME欢迎每一位AI爱好者的加入!

af162927d0f56246fd55550d4ecd1b0c.gif

条件梯度方法(Conditional Gradient Method)是一种经典的机器学习优化算法。CGM的运行效率取决于迭代次数和每次迭代的计算代价,现有的研究往往聚焦于减少迭代次数,忽略了对每次迭代的效率提升。本文着重研究了CGM算法中的迭代步骤,将条件梯度算法的迭代过程表达为一种最大内积搜索(MaxIP)问题,并首次提出一种具有理论保障的随机哈希算法来降低条件梯度算法的迭代损耗。在保持迭代次数不变的前提下,该方法在每一次迭代中将关于参数量N的线性复杂度O(n)降为亚线性的O(n1/2),为核支持向量机和神经网络等机器学习模型的大规模训练提供了一种新的优化策略。

本期AI TIME PhD直播间,我们邀请到莱斯大学博士生——徐兆卓,为我们带来报告分享《一种面向条件梯度优化方法的迭代效率提升策略》。

0541491a1917d8bd7687a9e3ff98b672.png

徐兆卓:

2017年获武汉大学电子信息工程专业学士学位,2019年毕业于斯坦福大学(Stanford University)电子工程系获硕士学位,现为莱斯大学(Rice University)计算机系在读博士生,师从Anshumali Shrivastava教授。主要研究方向为近邻检索及其在大规模机器学习中的应用,研究成果发表于NeurIPS,ICLR,,KDD,EMNLP,WSDM等顶级会议。2021年获Ken Kennedy研究所英国石油奖研金。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值