cvpr2024 Rethinking Multi-view Representation Learning via Distilled Disentangling
最佳视图一致和特定于视图的表示应该表现出强大的表示能力和最小的冗余。然而,流行的最先进的方法 [3, 11, 22, 56, 57] 通常忽略了最小化一致性和特异性之间冗余的关键方面,如图1所示,由现有端到端的方法导出的表示之间存在显著的相关性,这导致我们提出了一个重要问题:哪些因素有助于多视图表示中的依赖关系。这篇文章通过深入分析多视图表示学习中的挑战,提出了一种创新的蒸馏解缠结方法(MRDD),通过有效地分离视图一致性和特异性信息,并引入掩码跨视图预测策略,实现了高质量、低冗余的多视图表示学习。
原创
2024-09-06 11:01:17 ·
841 阅读 ·
0 评论