AutoML
文章平均质量分 90
__Lingyue__
微软亚洲研究院 实习生
展开
-
AutoGluon Tabular 表数据全流程自动机器学习 AutoML
论文链接:https://arxiv.org/abs/2003.06505代码链接:https://github.com/awslabs/autogluon背景表数据的AutoML近几年很火,但是目前没有一个框架做到了集大成,各有一些特色,但效果也一言难尽,比赛中选手常常用到一些可以提升效果的技术,之前的AutoML框架也都没有过多关注,关注点主要放在了模型选择和超参数调节上。这篇文章...原创 2020-03-24 18:10:31 · 2246 阅读 · 0 评论 -
DeepGBM: A Deep Learning Framework Distilled by GBDT for Online Prediction Tasks
DeepGBM: A Deep Learning Framework Distilled by GBDT for Online Prediction Tasks论文链接:https://dl.acm.org/citation.cfm?id=3330858代码链接:https://github.com/motefly/DeepGBM背景Guolin Ke是lightgbm的核心作者之一,我幸...原创 2019-11-15 18:41:29 · 1491 阅读 · 0 评论 -
Path-Level Network Transformation for Efficient Architecture Search 神经网络架构搜索
论文链接:Path-Level Network Transformation for Efficient Architecture Search架构搜索 根据一个已有的效果比较好的神经网络结构,找到更好的结构,例如将其中的某一层进行替换,增添一层或者减少一层,改变网络的拓扑结构。 为什么要基于已有的网络? 因为在已有的神经网络上更改拓扑结构可以利用已经训练好的权重,在巨人的肩膀上进步...原创 2018-07-02 17:26:14 · 2442 阅读 · 10 评论 -
基于梯度下降的可微架构搜索方法
文章转载自机器之心,没有做任何修改,机器之心原文 寻找最优神经网络架构的任务通常需要机器学习专家花费大量时间来完成,最近人们提出的自动架构搜索方法释放了我们的精力,但却非常消耗算力。由卡耐基梅隆大学(CMU)在读博士刘寒骁、DeepMind 研究员 Karen Simonyan 以及 CMU 教授杨一鸣提出的「可微架构搜索」DARTS 方法基于连续搜索空间的梯度下降,可让计算机更高效地搜索...转载 2018-07-04 15:50:54 · 2018 阅读 · 0 评论 -
Net2Net 知识迁移 加速神经网络的训练
论文链接:Net2Net: ACCELERATING LEARNING VIA KNOWLEDGE TRANSFER什么是Net2Net?Net2Net(Net to Net) 是利用知识迁移来解决大型网络的训练速度慢的问题,例如先训练一个小的网络,然后Net2Net,训练一个更大的网络,训练更大的网络时可以利用在小网络中已经训练好的权重,使得再训练大型的网络速度就变的非常快,利用小...原创 2018-07-05 15:37:48 · 5286 阅读 · 0 评论 -
DARTS 可微 架构搜索
论文链接:Differentiable Architecture Search 源代码:quark0/darts背景我们现在主流的效果最好的两种方法,进化学习(evolution)和强化学习(Reinforcement),他们的搜索空间都是不可微的,而现在作者提出了一种可微的方法,可以用梯度下降来解决架构搜索的问题,所以效率可以比之前不可微的方法快几个数量级。可以这么通俗的理解:之前...原创 2018-08-07 13:29:03 · 7596 阅读 · 9 评论