论文笔记之Learning Deep Representations for Graph Clustering

本篇论文是2014年AAAI的一篇论文。


思想也比较简单,主要是采用SAE(栈式自编码)无监督学习的形式,在graph上进行node embedding,将embedding得到的每个node的vector做为输入,进行graph cluster。论文中采用的是最常用的k-means方法来cluster。


算法如下:
step1 得到graph的n*n的邻接矩阵S和度矩阵D

step2 将D’S作为SAE的输入,实际上是graph有n个node,作为n个sample的训练集输入到 SAE中,每个sample的feature的维度是n表示该点与其他各点的连接情况。

step3 训练SAE,文中采用的是稀疏自编码的栈式形式。(自编码器一般都采用lbfgs的最优化策略来bp,效率和效果较好)

step4 取栈底的AE的hidden层的vector作为node embedding的结果

step5 将embedding结果作为k-means的输入,进行graph cluster,最后用nmi来评价cluster的结果


优点:
1.速度快,相比于谱聚类(涉及了EVD)
2.对于稀疏图而言,SAE有更好的表达效果
3.SAE更易于扩展成更deep的structure

缺点:
1.需要遍历所有的node,存储所有node的邻接点信息,对于big graph 可能在效率上不怎么work
2.只是考虑了1-hop的信息,embedding的效果可能不够好

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值