SimGCL和XSimGCL

SimGCL

动机

传统的SGL(图自监督学习)使得模型可以自行发掘任务特征,解决了数据稀疏和长尾分布的问题,SGL采用节点dropout、边dropout和随机游走三种方式对图结构进行扰动(图增强)进行对比学习,可以有效提高性能

SGL主要解决传统推荐系统面临的数据稀疏和长尾分布问题。通过在图结构上进行数据增强,并结合对比学习机制,SGL能够有效提升模型的表征学习能力,从而改善推荐性能。具体来说,SGL采用节点dropout、边dropout和随机游走三种方式对图结构进行扰动,生成多个子视图,再利用图卷积网络(如LightGCN)提取节点表征。这些表征通过最大化同一个节点不同视图之间的相似性,最小化不同节点之间的相似性,从而构建自监督学习任务

虽然这样做可有效提高性能,但是为什么这种对比学习的方法可以提高推荐性能,以及图增强是必要的吗?
在这里插入图片描述

实验

对于 为什么这种对比学习的方法可以提高推荐性能,图增强是必要的吗? 这个问题,本文做了对应实验;

实验一

首先,原先的方法都是SGL结合对比学习和图增强,那么在该实验中,为了验证图增强是否必要,我们在不同训练集上,分别测试SGL的几个不同变体

  • 5
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值