基于多视角相似性的PolSAR图像无监督语义分割
在极化合成孔径雷达(PolSAR)图像解释中,语义分割是一个重要的任务。为了解决单一视角相似性测量能力不足的问题,提出了一种基于多视角相似性的PolSAR图像无监督语义分割方法,用于估计类别数(NoC)并进行分类。NoC估计在语义分割方法中通常被忽略,为了保证合理性,提出了一种基于多视角极化旋转域特征和视觉评估趋势(VAT)方法的无监督PolSAR图像NoC估计方法。然后,综合分析了基于PolSAR图像统计特性的范数距离、测地距离、最大似然距离和广义似然比测试距离。不同距离的各种优势被整合,结合多视角矢量信息和散射信息构建了六个多核相似性矩阵。随后,采用一致性相似性网络融合方法进一步增强相似性矩阵的判别能力。此外,还采用了高效的超像素分割方法以减少斑点噪声。最后,基于估计的NoC和融合的相似性矩阵,采用光谱聚类方法获取语义分割结果。在两个AIRSAR数据集和一个高分三号数据集上进行的广泛实验证明,该方法能够有效地结合空间邻域相似性信息,实现更高的语义分割准确性。
图1. 所提方法的概览。
图2. 难以手动解释类别数量的ODI示例。
图3. 基于PolSAR图像的一些距离度量之间的转换关系。
图4. 一致性相似性网络融合方法示意图,仅以两个距离度量为例,文章中使用了六个距离度量。 (a) 相似性矩阵。 (b) 相似性网络。 © 通过CSNF进行的网络融合迭代更新每个网络的信息。 (d) 迭代网络融合导致最终融合网络的收敛。