1.Cheng H, Zhang T, Yang Y, et al. SwiftNet: Using Graph Propagation as Meta-knowledge to Search Highly Representative Neural Architectures[J]. arXiv: Learning, 2019.
主要方法 | 解决问题 |
---|---|
提出了基于GRAM的一种起名为SwiftNet的网络模型,使用结构级修剪以实现更高的精度密度,而不是使用通道深度缩放在资源和精度之间进行权衡 | 实现更灵活的搜索空间和更高的搜索效率,并且具有紧凑的神经体系结构,更适合在资源受限的边缘设备上部署 |
2.Zhang T, Cheng H, Li Z, et al. AutoShrink: A Topology-aware NAS for Discovering Efficient Neural Architecture[J]. arXiv: Learning, 2019.
主要方法 | 解决问题 |
---|---|
提出了一种拓扑感知的NAS方法AutoShrink,用于发现高效且具有代表性的单元拓扑以制定DNN架构。 | AutoShrink在图像分类和语言任务方面始终优于手工制作的模型和自动搜索的模型,而无需进行任何分类先验知识。 |
3.Yang, H., Tang, M., Wen, W., Yan, F., Hu, D.J., Li, A., Li, H., & Chen, Y. (2020). Learning Low-rank Deep Neural Networks via Singular Vector Orthogonality Regulariz