NeurIPS22: Contrastive Graph Structure Learning via Information Bottleneck for Recommendation

talk

文章是阿里的,创新性也是一般,但在于其实验充分,且遇到了一个不是同行的审稿人给了8.。文章核心思想:对比学习来做推荐。不同点1:其所谓的图结构学习:不是简单的采用drop node或者edge,而是采用替换node和 mlp学边。 不同点2:损失函数,其从信息瓶颈阐述,这里很多地方写的不是很好,证明或者做法都怪怪的,自己看完,觉得不知道为什么 infonce也可以 去消除冗余。 有审稿人也是这样的看法。

1. model

在这里插入图片描述

1.1丢弃节点

从伯努利分布中 根据 ωi采样出 mask,来进行drop,不同于之前的,不是drop节点,而是采用邻居embedding代替节点embedding。
这里这个ωi 在底下有介绍,通过节点特征算。
在这里插入图片描述

1.2 丢弃边

同样是通过ωi 来进行伯努利采样,得到mask ρ。
其中,对于节点ωi,直接通过节点表征mlp。边的,通过两个节点拼接后端的表征接mlp。

同时松弛了这个ρ,这里之后看看引文11,及其代码

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值