深度学习
文章平均质量分 80
嬉嬉皮
这个作者很懒,什么都没留下…
展开
-
【GNN】ASAP:自适应结构感知池化方法
今天学习了图神经网络论文《ASAP: Adaptive Structure Aware Pooling for Learning Hierarchical Graph Representations》提出的自适应结构感知池化方法(Adaptive Structure Aware Pooling, ASAP),发表于AAAI,2020.前言这篇论文回顾近年图神经网络中的池化方法并提出了(1)一种能够分层捕获局部子图信息的稀疏池化算子,该池化方法能够根据池化图的边连接更好的学习全局特征;(2)一种新的更适合原创 2020-08-31 09:43:13 · 1793 阅读 · 0 评论 -
GAN动机、原理及缺陷
本文搬运自公众号:程序员与机器学习GAN的动机要了解GAN,要从名字出发:Generative Adversarial Network 对抗生成网络生成:描述了GAN能解决的问题,生成一张图片或者一段话等。对抗:描述了GAN网络的运作方式。**GAN的两个核心组件:生成器Generator,判别器Discriminator。**生成器的目标是尽量生成真实的图片去欺骗判别器,而判别器的目标是尽量把生成器生成的图片和真实的图片区分开,是一个二分类过程。二者之间的关系体现着GAN中的对抗关系。打个原创 2020-08-24 20:53:00 · 496 阅读 · 0 评论 -
GATs《GRAPH ATTENTION NETWORKS》阅读笔记
今天读一读Bengio大神的GATs本篇论文Introduction所介绍的文章路线比较清晰,可以拿来做个Roadmap。任务:Node ClassificationIdea: 通过Multi-head Self-attention,考虑节点的邻节点,计算每个节点的hidden representation。方法可直接应用于inductive方法。GAT结构本文结合了GCN和mult...原创 2020-03-16 16:45:33 · 346 阅读 · 0 评论 -
GraphSAGE《Inductive Representation Learning on Large Graphs》阅读笔记
GraphSAGE《Inductive Representation Learning on Large Graphs》阅读笔记Task:node classification最近在读GNN的经典文章,网上对这些文章的解读已经非常透彻,本人在阅读文献过程中也学习了各路大神的独到见解,感谢,向你们致敬。在此分享我的阅读心得和热爱。摘要GraphSAGE为解决大多算法在embeddings训练...原创 2020-03-16 11:28:21 · 624 阅读 · 1 评论