- 博客(8)
- 收藏
- 关注
原创 MOAT:Alternating Mobile Convolution and Attention brings strong Vision Models
MOAT,CNN+VIT的异构模块
2023-10-13 15:35:03 77
原创 KD++:Improving Knowledge Distillation via Regularizing Feature Norm and Direction
对齐特征的norm与direction,提高蒸馏精度
2023-09-16 22:03:17 1282 2
原创 TinyViT: Fast Pretraining Distillation for Small Vision Transformers
预训练蒸馏+设计多尺度Block,提高小模型精度
2023-09-15 17:23:46 562 6
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人