本周的重要论文包括 SIGGRAPH 2020 最佳博士论文,以及南开大学等提出的自校准卷积和相应网络。
目录:
- LightGCN: Simplifying and Powering Graph Convolution Network for Recommendation
- Deformable Siamese Attention Networks for Visual Object Tracking
- Boosting Few-Shot Learning With Adaptive Margin Loss
- Improving Convolutional Networks with Self-Calibrated Convolutions
- Meta-Graph: Few Shot Link Prediction Via Meta Learning
- Differentiable Visual Computing
- Semantic Image Manipulation Using Scene Graphs
- ArXiv Weekly Radiostation:NLP、CV、ML 更多精选论文(附音频)
论文 1:LightGCN: Simplifying and Powering Graph Convolution Network for Recommendation
- 作者:Xiangnan He、Kuan Deng、Xiang Wang、Yan Li、Yongdong Zhang、Meng Wang
- 论文链接:http://staff.ustc.edu.cn/~hexn/papers/sigir20-LightGCN.pdf
摘要:在本文中,来自中国科学技术大学和新加坡国立大学等机构的研究者简化了 GCN 设计,使它更加简洁且更适合推荐任务。他们提出了一个新模型 LightGCN,其中仅使用 GCN 中的最基本组件邻域聚合(neighborhood aggregation)来进行协同过滤。具体来说,LightGCN 通过在用户 - 物品(user-item)交互图上线性地传播用户和物品嵌入,进而学习它们,并将所有层上学得的嵌入加权和用作最终嵌入(final embedding)。
这种简单、线性和整洁的模型实现和训练起来更加容易,并在相同的实验设置下较当前基于 GCN 的 SOTA 推荐模型神经图协同过滤(Neural Graph Collaborative Filtering, NGCF)有了 j 较大的性能提升,平均提升约 16.0%。
当前基于 GCN 的 SOTA 推荐模型 GGCF 及其三种变体的性能表现。
LightGCN 模型架构图。
NGCF 与 LightGCN 在不同数量层上的性能比较。
推荐:研究者在 TensorFlow 和 PyTorch 中均提供了 LightGCN 模型实现。
论文 2:Deformable Siamese Attention Networks for Visual Object Tracking
- 作者:Yuechen Yu、Yilei Xiong、Weilin Huang、Matthew R. Scott
- 论文链接:https://arxiv.org/pdf/2004.06711.pdf
摘要:在本篇论文中,码隆科技提出了可变形孪生注意力网络(Deformable Siamese Attention Networks, SiamAttn),以此来提升孪生网络跟踪器的特征学习能力。这种注意力机制为跟踪器提供了一种自适应地隐式更新模板特征的方法。
本研究中 SiamAttn 方法与其他三种当前 SOTA 跟踪器的跟踪效果比较。可以看到,SiamAttn 的结果更加准确,并且对外观变化、复杂背景和干扰物具有更强的鲁棒性。
SiamAttn 网络架构图示,包括一个可变形孪生注意力(deformable Siamese attention, DSA)模块、孪生候选区域网络(Siamese region proposal network, SiamRPN)和区域细化模块(region refinement module)。