❝Facebook AI 和 Cornell Tech 的研究人员近期发表研究论文预览文稿,声称近十三年 (deep) metric learning 领域的研究进展(ArcFace, SoftTriple, CosFace 等十种算法) 和十三年前的基线方法(Contrastive, Triplet) 比较并无实质提高,近期发表论文中的性能提高主要来自于不公平的实验比较, 泄露测试集标签,以及不合理的评价指标?
❞
其实大可不必心潮澎湃、攻击别人、对该领域前途失望。首先声明:「本回答不存在任何洗地、拉偏架、或刻意抹黑的意思,只是在心平气和地探讨问题。」
我的理解是,每当一个研究领域出现一些「rethinking」、「revisiting」、「comprehensive analysis」等类型的文章时,往往都说明了几个现象:
- 这个领域发展的还可以,出现了很多相关的工作可以参考;
- 这个领域的文章同质化太严重,到了传说中的 「“瓶颈期”」;
- 研究人员思考为什么已经有这么多好工作,却好像觉得还差点意思,还