目录 动机 Network Slimming Channel-Level Sparsity Leveraging Scaling Factors in BN Layers Channel Pruning and Fine-tuning 原文:《Learning Efficient Convolutional Networks Through Network Slimming》 动机 训练过程中减去部分权重后的非结构化剪枝无法直接部署在计算设备上,所以可以采用结构化剪枝,直接剪掉整个layer,如下图所示。 Network Slimming Channel-Level Sparsity 通过在 Loss Function 中添加 L1-Norm 来