Abstract:
研究上下文语义的依赖性为得到精准的分割结果,但大多数研究都是区分不同types的语义依赖性,这会损失scene understanding。
本文设计了Context Prior Network(CPNet)主要是用于区分intra-class和inter-class,提升语义依赖性。CPNet是在backbone上添加CP Layers with Affinity Loss。
Module
Context Prior Layers是feature map通过Aggregation Module(fully separable conv用于聚合spatial 信息),在经过Affinity Loss监督训练。
1.Affinity Loss
先将ground truth L变成smaller ground truth L1(HW),再把L1变成(HW*C)C是类别得到L2,然后A=L2xL2的转置,得到A Ideal Affinity Map(NxN)。
2.Context Prior Layers
这部主要是如何形成P的。见module图
3. Aggregation Module
主loss+辅助loss+Affinity loss
个人理解:是将feature map经过Aggregatation Module 聚合spatial information,产生的feature map经过变化得到Context prior map (P),P受到ground truth下采样到相同尺寸的smaller ground truth的Affinity Loss的监督。形成的P就是intra-class,(1-P)就是inter-class,分别与聚合后的feature map相乘,在和原feature map进行concat,然后反卷积得出结果。
本文主要是对intra-class和inter-class进行工作,提升scene understanding。
#本文主要简述(说的不详细),详细了解请看大佬的原文。如侵犯他人权益,请联系本人,本人自行删帖。