机器学习
文章平均质量分 60
小吴不会敲代码吧
练习时长两年半的全栈练习生
展开
-
一个开源可扩展的深度图聚类统一代码框架
在Liu等人的开源代码ADGC基础上对代码进行重构,实现了一个具有更高统一水平的深度图聚类开源代码框架,其运行简单,可扩展性强,欢迎star!原创 2023-04-29 14:23:58 · 1866 阅读 · 4 评论 -
论文阅读12——《Deep Graph clustering with enhanced feature representations for community detection》
本文分析了文章《Adversarially regularized joint structured clustering network》,作者提出了一种新的对抗正则化联合结构聚类网络(AJSCN)。 为了避免嵌入的自由结构,它被强制遵循一个先验分布。 对于聚类任务,构造了一个联合监督机制,其中包括学习更紧密表示的自我监督和使不同表示趋于一致的相互监督。原创 2022-11-25 11:07:38 · 652 阅读 · 2 评论 -
论文阅读11——《Mutual Boost Network for Attributed Graph Clustering》
本文分析了文章《Mutual Boost Network for Attributed Graph Clustering》,该文章提出一种新的双通道属性图聚类网络(MBN),该网络由自编码器和图自编码器组成,他们可以相互学习和交互。MBN的优点:利用所提出的表示增强模块,传播并融合来自节点特征和图结构的有价值的异构信息,用于识别图表示学习;提出一致性约束目标,以提高不同任务之间的聚类一致性;设计了一个自监督模块,在一个统一的框架中同时优化图聚类性能和表示学习。原创 2022-11-24 11:22:38 · 661 阅读 · 1 评论 -
论文阅读10——《Adversarially regularized joint structured clustering network》
本文分析了文章《Adversarially regularized joint structured clustering network》,作者提出了一种新的对抗正则化联合结构聚类网络(AJSCN)。 为了避免嵌入的自由结构,它被强制遵循一个先验分布。 对于聚类任务,构造了一个联合监督机制,其中包括学习更紧密表示的自我监督和使不同表示趋于一致的相互监督。原创 2022-11-23 10:37:53 · 589 阅读 · 0 评论 -
论文阅读09——《Deep Fusion Clustering Network》
本文对《Deep Fusion Clustering Network》进行了分析,该方法提出了一个基于相互依赖学习的结构和属性信息融合(SAIF)模块,该模块将自动编码器和图自动编码器学习的表示显式合并,用于一致性表示学习。 针对网络训练,设计了一种可靠的目标分布生成方法和一种便于跨模态信息开发的三重自监督策略。原创 2022-11-22 15:30:47 · 1567 阅读 · 4 评论 -
论文阅读08——《Deep Learning on Graphs: A Survey》
深度学习在许多领域都是成功的,从声学、图像到自然语言处理。然而,由于图的独特特性,将深度学习应用于无处不在的图数据并非易事。最近,大量的研究致力于将深度学习方法应用于图,从而在图分析技术方面取得了有益的进展。在这项调查中,我们全面回顾了不同类型的图深度学习方法。我们根据模型结构和训练策略将现有方法分为五类:图循环神经网络、图卷积网络、图自动编码器、图强化学习和图对抗方法。然后,我们主要通过跟踪其发展历史,以系统的方式对这些方法进行全面概述。我们还分析了不同方法的差异和组成。最后,我们简要概述了它们的应用,并原创 2022-06-18 11:35:59 · 441 阅读 · 1 评论 -
深度学习系列笔记(六)
Marigold博客 深度学习系列笔记(六)转载 2021-12-25 09:00:01 · 92 阅读 · 0 评论 -
深度学习系列笔记(五)
Marigold博客 深度学习系列笔记(五)转载 2021-12-25 08:59:22 · 89 阅读 · 0 评论 -
深度学习系列笔记(四)
Marigold博客 深度学习系列笔记(四)转载 2021-12-25 08:58:15 · 81 阅读 · 0 评论 -
深度学习系列笔记(三)
Marigold博客 深度学习系列笔记(三)转载 2021-12-25 08:57:03 · 83 阅读 · 0 评论 -
深度学习系列笔记(二)
Marigold博客 深度学习系列笔记(二)转载 2021-12-25 08:55:52 · 62 阅读 · 0 评论