HRFormer:1. 针对VIT中的单尺度及参数量大小的问题,设计了一个Local-window self-attention模块。2.针对窗口之间的交互问题,在Local-window self-attention后面加上了卷积,这篇博客讲的比较详细。代码:https://github.com/HRNet/HRFormer
MixFormer:将Local-window self-attention和深度卷积并行计算并做了一个双向交互。代码:https://github.com/PaddlePaddle/PaddleClas。
STAL:一篇关于域自适应语义分割的论文,上半部分的self_training,感觉和半监督学习中的U2pl比较相似,但是也有不同(长尾部分,Cutmix)。下半部分就是主动学习部分(没有太多了解),在这里可能就是主要解决数据量的问题。根据熵来选择不确定的标签,进行标注。代码:https://github.com/licongguan/STAL,