之前对于检测不熟悉,今天恰好是检测方向,传统滑窗,也就是将检测换为分类,必须是两阶段,因此后期是主要在anchor或者bbox上的改进,使得给予的备选框少又准确。
后来,发现虽然是滑动窗口,但是对于定下了CNN卷积核之后,滑动窗口其实就等价于对featuremap的滑动,这样就一下子打开了思路,直接在特征图上进行预测不就行了,所以后期就是密集预测了,单阶段越来越多,直到anchor-free
这里提一点,单阶段需要解决一个很重要的问题就是正负样本
加权加权,还是加权
这是后期转为了anchor-free,直接预测标注位置
由于自己没做过,不知道是否是先确定中心位置,然后再进一步推导框的位置
这是另一个思路,既然直接从特征图能够“翻译”出中心位置、类别、框位置,那么直接 看作翻译,应该也是很好玩的事情,既然语义翻译是从不同语言和环境之间的翻译,那么从图像到“中心位置、类别、框位置”也是看作翻译,不过分把,而且是息息相关,那么上transformer就合情合理了。