新的一年咧
妈呀一大早来真tm困死我了
早上回顾了一下以前看的几篇ov paper,然后看到那几个蒸馏的,然后感觉有点怪怪的
《Global Knowledge Calibration for Fast Open-Vocabulary Segmentation》这个
他们用某一个数据集(比如coco panoptic,133类)进行训练,然后在别的数据集上验证,然后看mAP,这个训练验证模式没啥问题,但是就是,毕竟蒸馏只在训练的时候用到clip vision encoder,验证的时候就会把他去掉只留下一个base model,那就说明,我只能蒸馏到clip里面关于训练集的特征,那其他类别的特征捏,咋办
但是在他的实验里面,确实在其他数据集上是能提点的,我就感觉蛮神奇的(用coco panoptic训练)
所以我就有个猜想,会不会是,coco panoptic包含的133类,在其他这几个数据集里面也大量出现,那么只要把这133类训练好了,在其他数据集验证效果也会好?意思就是对于未知类可能其实效果不咋好(毕竟训练的时候又没有训练到,而且也没有任何相关的信息),但是架不住未知类别object占比少啊,那效果还是不会很差
所以我就想,分别看一下这几个数据集,每个类别的annotation在(自己数据集中)所有annotation的占比,如果训练集(即coco panoptic)包含的133类也在其他数据集大量出现,那其实很大概率这种蒸馏方法就不是 “开放世界” 的,他对于未知类别的分类能力其实还算是比较差,而且你看他验证ADE20K-847(847个类别),效果就不是特别好,这个数据集类别特别多,大概率跟coco panoptic的交集也少一点
然后下午终于开始跑代码了,不知道这次的结果怎么样,其实不用等他全部跑完,看刚开始几个epoch就能大概知道了,晚上8点应该就差不多了
感觉差不多,但是确实还是差了一点,and现在vpn断开了,本来还想着多跑几个epoch看一下怎么样,要是明显不好就换别的重新来,但是现在也只能乖乖等明天重连了
还有就是,还说我想看一下数据集的情况,md下载数据集就是一个不小的挑战,给老子整疯了要,而且同类数据集也有很多,就不知道他用的是哪个
tmd,见过其他数据集才知道coco格式有多好,操
明天:
看结果,改代码,继续跑,看论文