自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(2)
  • 收藏
  • 关注

原创 论文分享-->GNN-->Graph Attention network

本次要总结分享的论文:论文链接:Graph Attention network(GAT)来源会议:ICLR 2018作者:Petar Velickovic, Guillem Cucurull, Arantxa Casanova, Yoshua Bengio参考代码:GAT-CODE本篇论文的核心内容其实很简单,就是将 NLP领域的 注意力机制 延用到不规则的 图结构上,使得节点在聚合其邻居节点信息时,能自适应的分配不同邻居不同权重。实验显示取得了不错的效果。本论文是GNN领域内重要的一篇论文,

2021-05-16 18:46:08 733

原创 论文分享-->GNN-->GraphSAGE

本次要总结的是 论文 Inductive Representation Learning on Large Graphs,参考的实现代码链接code,本篇论文是GNN领域内一篇非常重要的论文,值得认真读下。论文动机和创新点将大图中的节点用低维度的稠密向量表示,已经被证明是非常有用的方法,但是现有的大部分方法,都是将图中的所有节点扔进模型中进行训练,本质还是直推式的,其训练得到的模型不容易推广到未见过的节点,或者一张新的图上。本论文涉及两个重要概念,分别如下: transductive:直推式,

2021-05-02 17:07:31 1715 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除