NAS
文章平均质量分 81
神经网络架构搜索技术整理
爱生活的打工人
硕士在读,NAS,模型压缩,轻量化,计算机视觉。
音乐,摄影,绘画,哲学。
展开
-
Object Detection+NAS 相关资料整理2021-4-19
Object Detection+NAS 相关资料整理目前进展目标检测框架中的模块大致可以分为Backbone,Neck(FPN),Head三个部分。NAS技术可以分为对其中的单个模块搜索以及多个模块搜索。单模块搜索BackboneSpineNetgoogle brain出品,CVPR2020以resnet50为基准搜blocksEfficient Neural Architecture Transformation Search in Channel-Level for Object原创 2021-04-19 17:07:31 · 304 阅读 · 0 评论 -
Once for All 代码分析
Once-For-All: Train One Network And Specialize it For Efficient Deployment代码分析论文链接:https://arxiv.org/abs/1908.09791代码链接:https://github.com/mit-han-lab/once-for-all视频链接:https://youtu.be/a_OeT8MXzWI该论文是MIT韩松组在ICLR 2020上发表的工作,Once-For-All的核心是训练只需要原创 2021-01-09 17:04:19 · 2829 阅读 · 30 评论 -
oqfa分析
Once Quantized for All: Progressively Searching for Quantized Compact Models分析论文链接: https://openreview.net/pdf?id=_MxHo0GHsH6代码链接:https://openreview.net/attachment?id=_MxHo0GHsH6&name=supplementary_material该论文是ICLR2021上在投的一个工作。该工作以及韩松组的APQ等工作,说明了业原创 2021-01-17 22:23:32 · 393 阅读 · 0 评论 -
AttentiveNAS论文解读
AttentiveNAS论文解读论文链接:https://github.com/facebookresearch/AttentiveNAS代码链接:https://arxiv.org/pdf/2011.09011.pdf论文是CVPR2021上Facebook的一个工作。论文摘要NAS技术在设计既好又快的SOTA模型上表现出了巨大潜力。最近,两阶段的NAS,比如BigNAS,解耦了了模型训练和搜索并实现了搜索的高效性。两阶段的NAS需要在训练阶段中从搜索空间采样,这个过程会影响到最终搜索出来的原创 2021-03-13 17:39:35 · 587 阅读 · 0 评论