晓查 乾明 发自 凹非寺
量子位 报道 | 转自公众号 QbitAI
两位学霸本科生,一位来自浙大,一位来自北大。
他们在实习期间,研究出一种新的AI算法,相关论文已经被人工智能顶级会议ICLR 2019收录,并被领域主席赞不绝口,完全确定建议接收。
在这篇论文中,他们公布了一个名为AdaBound的神经网络优化算法,简单地说,这个算法训练速度比肩Adam,性能媲美SGD。
这个算法适用于CV、NLP领域,可以用来开发解决各种流行任务的深度学习模型。而且AdaBound对超参数不是很敏感,省去了大量调参的时间。
两位本科生作为共同一作的这篇论文,也在Reddit上引发了热赞,作者本人也在这个论坛上展开了在线的答疑交流。
AdaBound已经开源,还放出了Demo。
AdaBound是什么
AdaBound结合了SGD和Adam两种算法,在训练开始阶段,它能像Adam一样快速,在后期又能像SGD一样有很好的收敛性。
SGD(随机梯度下降)算法历史悠久,它是让参数像小球滚下山坡一样