AutoDL
惯懒高手
刚入研究生的人
展开
-
CVPR2019元学习教程:小样本学习、多任务学习、神经架构搜索、贝叶斯优化等前沿综述
这篇本来是从网上专知那里找的,可是被删了……实在可惜,因此转载至此。下面的4个PPT非常棒,是大牛们对这个行业的综述以及前景预测。————————————————————————分割线—————————————————————————导读计算机视觉最具影响力的学术会议之一的 IEEE CVPR 在2019 年 6 月 16 日 在美国加州的长滩市召开举行。来自Salesforce Re...原创 2019-10-15 15:03:53 · 837 阅读 · 0 评论 -
SNAS:比DARTS更随机的
原文地址:https://arxiv.org/pdf/1812.09926.pdf参考博客:AI科技大本营,雷锋网,喜欢打酱油的老鸟原本是打算略读这篇的……不过读着读着愈发感觉到这里面承载的知识含量,因此开一贴详述。1.本文做了什么?DARTS将网络架构搜索变得可微分,大幅提高了速度,但在最终选择离散架构时只是粗暴的选择了概率最高的结果(并无数学依据),并且在优化部分只能进行“两步...原创 2019-10-12 11:08:13 · 861 阅读 · 0 评论 -
Auto-Deeplab:从SOTA模型开始学习神经架构搜索
写在文章前面的一点小感想:笔者是北京某高校的在读研究生。研一至今一直在从事着名为科研的本科实验报告撰写工作,深感自己与时代脱节严重。恰逢导师有意,遂将元学习与神经架构搜索作为自己的研究方向,但却一直没有迈出那个第一步。因为觉得自己如此虚度时光会最终废掉,因此在此立一个Flag:无论多忙,每天精读一篇相关领域文章并分享于此。从我个人而言,我的科研方法是侧重整体感知而忽视细节的。也即,在我的文章中...原创 2019-09-29 11:24:10 · 1977 阅读 · 0 评论 -
DARTS:用概率模型使网络架构搜索变得可导
数学就是知识,这是对DARTS最形象的概述。不知道其他看官有没有这种感觉,深度学习在经过冗长的一段试错法发展(从AlexNet到DenseNet,其间催生了无数修改模型-有效-尝试解释-发文的臆测型模型修改水文)后,终于在AutoDL下成为了一种优化可解的方法。最近读到的很多方法,都使用了概率论相关的知识,不禁感慨:数学就是算法的根。闲话少说,开始DARTS!DARTS:可微分神经架构...原创 2019-09-29 21:24:34 · 818 阅读 · 0 评论 -
对Exploring RandomlyWired Neural Networks for Image Recognition的另类解读:披着随机搜索外衣的操作至上方法
原文链接:https://arxiv.org/abs/1904.01569项目地址:https://github.com/seungwonpark/RandWireNN中文翻译:https://blog.csdn.net/weixin_37993251/article/details/89161502参考的博客:xiaoiker的博客和georgeandgeorge的博客1.本文在...原创 2019-10-07 22:31:36 · 232 阅读 · 0 评论 -
NAS-Bench-101: Towards Reproducible Neural Architecture Search:第一个NAS查表数据集
原文链接:https://arxiv.org/pdf/1902.09635.pdf数据集与代码链接:https://github.com/google-research/nasbench1.本文做了什么?本文设计了第一个供NAS使用的数据集,以希望降低这个行业的算力门槛,并提供一个可以统一量化成果效果的平台。在搜索空间中通过图同构来识别423k个独特的cell(cell定义见NA...原创 2019-10-08 18:59:28 · 2225 阅读 · 0 评论