- 博客(1)
- 收藏
- 关注
原创 《ScaleKD: Distilling Scale-Aware Knowledge in Small Object Detector》CVPR 2023——简要介绍
Scale-aware Knowledge Distillation(ScaleKD)方法,将复杂教师模型的知识传递给紧凑的学生模型。通过在COCO和VisDrone数据集上进行实验,证明了ScaleKD在通用检测性能上取得了优越的表现,并且在SOD性能上取得了显著的改进。
2024-08-14 16:06:35 445
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人