![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
阅读
文章平均质量分 51
qq_42725437
这个作者很懒,什么都没留下…
展开
-
【论文阅读】LLM4GCL: CAN LARGE LANGUAGE MODEL EMPOWER GRAPH CONTRASTIVE LEARNING?
图对比学习的重点就是图数据的增强,针对图中节点的表示或者图的结构进行扰动,通过对比学习得到对应的节点表示,以便于进行节点分类、连接预测等。这个工作用LLM提升特征增强和结构增强。原创 2024-07-15 00:30:49 · 117 阅读 · 0 评论 -
【论文阅读笔记】Graph Invariant Learning with Subgraph Co-mixup for Out-Of-Distribution Generalization
现有的图神经网络依赖训练集和测试集是同分布的假设,现实世界存在各种形式的分布偏移,测试集就是分布外数据,将在训练数据上表现良好的gnn,用在测试集上会显著失败。所以需要捕获预测模式与标签之间的不变关系。基于不变准则:存在一定比例的数据能够捕获不同环境中数据与标签之间的不变关系。然而,现有的DIR、GIL依赖环境的划分。2.提升mixup方法使得尽可能多得保存不变信息同时排除掉环境相关的有欺骗性的相关关系。使得不变子图决定标签的类别,而削弱环境子图的影响。根据p的伯努利分布在图中采样边得到不变子图。原创 2024-07-07 17:43:14 · 248 阅读 · 1 评论