论文整理(陈怡然团队)

1.Cheng H, Zhang T, Yang Y, et al. SwiftNet: Using Graph Propagation as Meta-knowledge to Search Highly Representative Neural Architectures[J]. arXiv: Learning, 2019.

主要方法 解决问题
提出了基于GRAM的一种起名为SwiftNet的网络模型,使用结构级修剪以实现更高的精度密度,而不是使用通道深度缩放在资源和精度之间进行权衡 实现更灵活的搜索空间和更高的搜索效率,并且具有紧凑的神经体系结构,更适合在资源受限的边缘设备上部署

2.Zhang T, Cheng H, Li Z, et al. AutoShrink: A Topology-aware NAS for Discovering Efficient Neural Architecture[J]. arXiv: Learning, 2019.

主要方法 解决问题
提出了一种拓扑感知的NAS方法AutoShrink,用于发现高效且具有代表性的单元拓扑以制定DNN架构。 AutoShrink在图像分类和语言任务方面始终优于手工制作的模型和自动搜索的模型,而无需进行任何分类先验知识。

3.Yang, H., Tang, M., Wen, W., Yan, F., Hu, D.J., Li, A., Li, H., & Chen, Y. (2020). Learning Low-rank Deep Neural Networks via Singular Vector Orthogonality Regulariz

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值