- 对图做数据增广,取出一部分(随机断掉一些边,类似图像里的crop)
- 每个view学习自己的顶点表示和图表示
- 利用一个view的点表示和另一个view的图表示,学习分类器,同时学习一个score
具体地:
augmentations
我们可以考虑两类图的增广:(1)对初始节点特征进行的特征空间增广,如掩蔽或添加高斯噪声;(2)对图结构进行的结构空间增广和腐蚀,通过添加或删除连通性、子采样和,或者使用最短距离或扩散矩阵生成全局视图。前一种可能有问题,因为不是所有测试集都给了特征,而且我们试了这样没什么好处,所以我们采用全局图增广加子采样。
我们的经验表明,在大多数情况下,最好的结果是通过将邻接矩阵转化为扩散矩阵,并将这两个矩阵视为同一图结构的两个同余视图来实现的(见第4.4节)。我们指出,由于邻接矩阵和扩散矩阵分别提供了图结构的局部和全局视图,因此从这两个视图学习到的表示之间的最大一致性允许模型同时编码丰富的局部和全局信息。
以下是图增广方式:
全局图增广后我们做一下子采样,一个view随便选,另一个view选的边和顶点要和他一样
encoders
这里的encoder选什么都可以,我们选了最常用的GCN用作我们的图编码器
train
在训练时,应该还加上了顶点分类loss和图的分类Loss吧(猜的,不然怎么学到监督信息)。在测试时,特征为两个view的特征相加。