知识蒸馏之自蒸馏
Attention Distillation@TOCAttention Distillation in CVPR\AAAI (from 2021 to 2022)本文整理了AAAI2021/AAAI2022/CVPR2021中的注意力蒸馏类文章(强调feature-based knowledge distillation),后续可能会继续更新其他计算机视觉领域顶会中的相关工作,欢迎各位伙伴相互探讨。背景知识-注意力蒸馏1.定义:注意力蒸馏 (Attention distillation):用于把大网
原创
2022-03-03 18:06:10 ·
24057 阅读 ·
0 评论