自表示和聚类同时进行的不完整多视图子空间聚类

 

问题引出:以往基于矩阵分解的不完整多视图聚类算法,将不完整多视图数据的表示学习和聚类作为两个独立的过程,即:他们首先学习多视图数据对应的表示矩阵,然后对一致表示矩阵进行聚类,忽略了表示学习和聚类分析相互依赖的事实。

因此,不完整多视图数据的表示学习和聚类分析同时进行可以实现更好的聚类[12,11]。

本文创新:

1.提出了一种新的子空间聚类算法,并且不需要后处理(k-means);

2.将不完整多视图学习和新的子空间聚类学习集成到同一目标函数中,并同时优化直至收敛;

OMVSC-IV

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
1. 多视图一致性聚类(Multi-View Consensus Clustering): 多视图一致性聚类是一种通过融合多个视图或特征空间的信息来进行聚类的方法。在多视图一致性聚类中,每个视图都生成自己的聚类结果,然后通过比较不同视图之间的一致性来融合这些结果,得到最终的一致性聚类结果。这种方法可以增强聚类的稳定性和准确性,并且对于不同视图之间的噪声和冗余特征具有一定的鲁棒性。 2. 多视图空间聚类(Multi-View Subspace Clustering): 多视图空间聚类是一种利用多个视图或特征空间中的空间信息来进行聚类的方法。在多视图空间聚类中,每个视图都代表一个空间,并且数据点在不同空间中可能具有不同的表示。多视图空间聚类通过对每个空间进行聚类,并将不同空间聚类结果进行整合,来得到最终的聚类结果。这种方法可以更好地处理数据的多样性和复杂性,提高聚类的准确性和鲁棒性。 3. 相互正则化(Mutual Regularization): 相互正则化是一种在多视图学习中常用的正则化方法,用于增强不同视图之间的一致性和互补性。在相互正则化中,每个视图都有自己的损失函数,并且通过最小化自身的损失函数以及最大化其他视图的损失函数来进行优化。这种相互正则化的过程可以使得不同视图之间的特征表示更加一致和互补,从而提高多视图学习任务的性能。相互正则化常用于多视图聚类、多视图分类等任务中。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值