快速读论文
读了那么多论文,都没有一个固定的地方存下感受和心得,就这里了。
无意识积累中
这个作者很懒,什么都没留下…
展开
-
快速读论文----异质图神经网络(写文章帮助总结异质图神经网络的文章)
异质图神经网络(写文章帮助总结异质图神经网络的文章)原创 2022-08-31 22:17:40 · 378 阅读 · 0 评论 -
快速读论文----AD-GCL:Adversarial Graph Augmentation to Improve Graph Contrastive Learning
AD-GCL:Adversarial Graph Augmentation to Improve Graph Contrastive Learning原创 2022-06-20 12:32:09 · 728 阅读 · 0 评论 -
GraphMAE----论文快速阅读
graph上的generative SSL原创 2022-06-19 18:31:27 · 786 阅读 · 0 评论 -
快速读论文-Adversarial Feature Translation for Multi-domain Recommendation
现实世界中的超级平台,如谷歌和微信,通常会有不同的推荐场景,为用户的不同需求提供不同的项目。多域推荐(MDR)是为了同时改进所有推荐域而提出的,其关键是从所有推荐域中获取特定于领域的信息特征。为了解决这个问题,我们提出了一种新的MDR对抗性特征翻译(AFT)模型,该模型在生成的对抗性网络框架下学习不同领域之间的特征翻译。确切地说,在多域生成器中,我们提出了一种特定于域的屏蔽编码器来突出域间的特征交互,然后通过转换器和特定于域的注意来聚合这些特征。在多领域鉴别器中,受知识表示学习的启发,我们通过两步特征转换明原创 2022-02-18 15:13:26 · 526 阅读 · 0 评论 -
快速读论文----Graph Embedding Framework Based on Adversarial and Random Walk Regularization
图嵌入的目的是将节点结构和属性信息表示到低维向量空间中,以便使用简单的机器学习算法轻松执行一些下游应用任务,如节点分类、链接预测、社区检测和推荐。图卷积网络是一种用于图的机器学习的神经网络框架。由于其强大的图形数据建模能力,它是目前图形嵌入的最佳选择。然而,现有的大多数基于图卷积网络的嵌入算法不仅忽略了潜在码的数据分布,而且失去了图中节点间的高阶邻近性,导致嵌入效果较差。为了缓解这个问题,我们研究了如何强制执行潜在代码来匹配先验分布,并引入随机游动来保持图中的高阶邻近性。在本文中,我们提出了一种新的图嵌入框原创 2021-12-31 15:02:41 · 487 阅读 · 0 评论 -
快速读论文----PURE: Positive-Unlabeled Recommendation with GenerativeAdversarial Network
随着在线数据量的不断增长,推荐系统是信息过滤的强大工具。尽管它在各种web应用程序和个性化产品中获得了成功和广泛采用,但许多现有的推荐系统仍然存在多个缺点,如大量未观察到的反馈、模型收敛性差等。现有工作的这些缺点主要是由于以下两个原因:第一,广泛使用的负采样策略将未标记的条目视为负样本,在现实环境中无效;其次,所有的训练样本都是从离散的观察中提取出来的,而用户和项目的潜在真实分布并没有被了解。在本文中,我们通过开发一个名为PURE的新框架来解决这些问题,该框架训练一个无偏正无标记鉴别器来区分真正相关的用户项原创 2021-12-31 15:02:16 · 508 阅读 · 0 评论 -
快速读论文----Neighbor-Anchoring AdversarialGraph Neural Networks
图形神经网络(GNNs)由于能够学习图形数据的高级表示而被广泛采用。虽然GNN具有很强的识别能力,但它们往往无法学习底层节点分布以提高鲁棒性。为了解决这个问题,受生成对抗网络(GANs)的启发,我们研究了图神经网络上的对抗学习问题,并提出了一种新的图表示学习框架NAGNN(即邻域锚定对抗图神经网络),它不仅训练一个鉴别器,而且训练一个相互竞争的发生器。特别地,我们提出了一种新的邻域锚定策略,其中生成器生成具有明确特征和锚定在参考真实节点上的邻域结构的样本,以便鉴别器可以对伪样本执行邻域聚合以学习更好的表示。原创 2021-12-31 15:01:52 · 1123 阅读 · 0 评论 -
快速读论文----CKA----Similarity of Neural Network Representations Revisited
摘要: 最近的工作试图通过比较层之间和不同训练模型之间的表示来理解神经网络的行为。我们研究了基于典型相关分析(CCA)的比较神经网络表示的方法。我们证明了CCA属于用于测量多元相似性的统计量家族,但是CCA和任何其他对可逆线性变换不变的统计量都不能测量比数据点数量更高维度表示之间的有意义相似性。我们引入了一个相似性指数来度量代表性相似矩阵之间的关系,并且不受此限制。该相似性指数相当于中心核对齐(CKA),也与CCA密切相关。与CCA不同的是,CKA可以可靠地识别不同初始化训练的网络中表示之间的对应关系。原创 2021-12-29 23:53:24 · 3418 阅读 · 0 评论